e há alguns anos atrás os golpes digitais eram relativamente simples e concentravam-se em manipulações documentais ou distorções de informações por parte dos segurados, hoje a realidade é bem diferente. A digitalização dos serviços, aliada ao avanço da inteligência artificial, abriu um novo capítulo nesse embate: enquanto criminosos aprimoram suas estratégias para explorar vulnerabilidades nos sistemas, seguradoras investem cada vez mais em soluções tecnológicas para se proteger. No entanto, a complexidade dessa disputa levanta uma questão inevitável: será que a IA está conseguindo conter as fraudes ou ainda há um longo caminho a percorrer?
Inteligência artificial amplia o alcance de fraudes digitais no Brasil
O avanço da IA tem sido um fator determinante na evolução dos golpes digitais, permitindo que criminosos automatizem fraudes em larga escala e tornem suas abordagens mais convincentes. Um levantamento da plataforma BrandMonitor, divulgado pelo portal Tiinside, revela que, entre março e maio de 2024, 529 das 628 marcas monitoradas sofreram ataques envolvendo domínios suspeitos. Em 405 desses casos, foram detectados sites falsos criados para enganar consumidores e empresas. Entre as 50 marcas mais visadas, a média foi de 86 novos domínios fraudulentos surgindo em um período de apenas três meses.
Aumento de golpes com IA tem a ver com a adaptação dessa tecnologia a diversas finalidades, sem restrições rígidas sobre como pode ser empregada
Os dados indicam que a IA tem sido amplamente utilizada para potencializar essas fraudes, reduzindo o esforço humano necessário para estruturar ataques e aumentando sua escala. Segundo o levantamento, uma das razões para o crescimento dessas práticas é a capacidade da inteligência artificial de se adaptar a diferentes setores e finalidades, sem restrições rígidas sobre como pode ser empregada. Esse fator tem levado a uma diversificação dos métodos usados pelos criminosos, que, apesar das variações nos golpes, seguem um padrão estruturado para sua execução.
Como a IA é usada para estruturar fraudes
O impacto desse tipo de ataque são variados. Empresas têm lidado com um crescimento expressivo de fraudes relacionadas à criação de sites falsos, prejudicando suas marcas e a confiança dos consumidores. Os ataques digitais que fazem uso da inteligência artificial costumam seguir três etapas principais, segundo o levantamento mencionado acima:
- Coleta de dados – Informações pessoais e financeiras de usuários e empresas são obtidas por meio de vazamentos de dados, phishing e malwares. Esses dados são essenciais para personalizar os golpes e aumentar suas chances de sucesso.
- Treinamento da IA – Após obter um volume significativo de informações, criminosos utilizam esses dados para ensinar sistemas de IA a identificar padrões de comportamento e imitar a comunicação humana com alto grau de precisão. Isso permite, por exemplo, que mensagens fraudulentas sejam escritas de forma mais natural e personalizada, tornando-as mais convincentes para as vítimas.
- Execução do golpe – Com a IA treinada, o golpe é automatizado. Perfis falsos são criados, e-mails e mensagens são enviados de forma direcionada, e interações simuladas em tempo real passam a ser conduzidas por bots capazes de enganar usuários e sistemas de autenticação. Essa automação permite que fraudes ocorram em larga escala, sem a necessidade de intervenção constante dos fraudadores.
Uma das maiores preocupações para os próximos anos é a evolução dos ransomwares
As previsões para 2025 indicam que as fraudes digitais continuarão a evoluir, tornando-se ainda mais sofisticadas. Segundo o relatório “Panorama de Ameaças para a América Latina 2024”, da Kaspersky, uma das maiores preocupações para os próximos anos é a evolução do ransomware. Esse tipo de ataque, que tradicionalmente bloqueia o acesso a arquivos por meio de criptografia, deve avançar para uma nova abordagem, focada na manipulação de bancos de dados. Em vez de simplesmente restringir o acesso às informações, criminosos poderão adulterá-las, tornando incertas a confiabilidade dos registros e a veracidade dos dados mesmo após uma recuperação. No setor de seguros, onde as decisões financeiras dependem diretamente da integridade das informações, essa ameaça pode comprometer a precificação das apólices e a avaliação de riscos.
Criptografia pós-quântica pode dificultar a recuperação de dados em casos de invasão
Outro fator que intensifica os desafios enfrentados pelas seguradoras é o avanço da criptografia pós-quântica, segundo o estudo. Essa tecnologia está sendo desenvolvida para resistir tanto a ataques convencionais quanto a sistemas baseados em computação quântica, dificultando a recuperação de dados em casos de invasão. Além disso, o relatório aponta para a popularização do modelo de ransomware como serviço (RaaS), que permite que criminosos adquiram ferramentas sofisticadas de ataque por valores acessíveis, a partir de R$40. Esse modelo reduz as barreiras técnicas para a prática de fraudes e pode aumentar o número de incidentes cibernéticos nos próximos anos, colocando as seguradoras diante de um ambiente de risco cada vez mais complexo.
52% das instituições financeiras do Brasil planejam implementar mecanismos da IA para detecção de fraudes
Diante desse cenário, empresas do setor financeiro têm intensificado o uso da inteligência artificial como forma de defesa. Segundo o estudo “Pulso 2024 – Experiência Digital: a Evolução dos Serviços Financeiros na América Latina”, apresentado durante o evento Febraban Tech, 52% dos executivos do setor financeiro no Brasil planejam ampliar o uso de IA para reforçar a detecção de atividades fraudulentas. Conforme o relatório, as instituições financeiras brasileiras concentram seus esforços na análise de riscos e na identificação precoce de fraudes (52%), enquanto outros países da América Latina estão mais focados na implementação de chatbots para atendimento ao cliente (54%). Essa diferença de prioridade revela como as instituições financeiras nacionais reconhecem a ameaça dos golpes digitais e a necessidade de estratégias mais eficazes para lidar com esse problema.
A IA detecta fraudes e também é usada por criminosos para aperfeiçoar seus golpes
O fato a ser ponderado é que a inteligência artificial não se limita a ser uma ferramenta de defesa. O mesmo avanço tecnológico que permite detectar fraudes com mais precisão também tem sido explorado por criminosos para aperfeiçoar seus golpes. Um dos maiores desafios para as seguradoras atualmente é o uso de inteligência artificial generativa para falsificação de identidades e documentos. A criação de deepfakes tem se tornado um dos recursos mais utilizados em fraudes contra seguradoras. Com essas técnicas, criminosos conseguem se passar por clientes legítimos para modificar contratos, solicitar indenizações indevidas e até burlar sistemas de reconhecimento facial e autenticação por voz.
Quando um sistema de autenticação é comprometido, toda a estrutura de análise de risco é afetada
O impacto dessas fraudes vai muito além dos prejuízos financeiros de cada caso individual. Quando um sistema de autenticação é comprometido, toda a estrutura de análise de risco é afetada. A precificação de seguros, que depende diretamente da veracidade das informações fornecidas pelos clientes, torna-se menos confiável, podendo gerar perdas financeiras consideráveis para as seguradoras. Esse panorama exige que as empresas invistam em soluções ainda mais sofisticadas para garantir que a identidade dos segurados possa ser verificada com segurança.
Dependência excessiva da tecnologia também pode apresentar riscos
É claro que o uso da inteligência artificial no setor de seguros traz benefícios já comprovados, como maior precisão na identificação de irregularidades, otimização dos processos de análise de risco e maior segurança nas operações. No entanto, a dependência excessiva da tecnologia também pode apresentar riscos. Algoritmos podem falhar, sistemas podem ser manipulados e novos métodos fraudulentos podem driblar barreiras que hoje parecem intransponíveis. Esse equilíbrio entre inovação e vulnerabilidade será o fator decisivo para determinar se as seguradoras conseguirão, de fato, estar à frente dos criminosos.