Avanço de ferramentas de inteligência artificial que podem espalhar mentiras tende a aumentar desconfianças

Avanço de ferramentas de inteligência artificial que podem espalhar mentiras tende a aumentar desconfianças

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Avanço de ferramentas de inteligência artificial que podem espalhar mentiras tende a aumentar desconfianças

Sofisticação e popularização de algoritmos colocam nas mãos de qualquer pessoa ferramentas poderosas para disseminar mentiras. (Foto: Reprodução)

Em 2017, um experimento pioneiro de inteligência artificial (IA) da Universidade de Washington revelou um cenário perturbador: um vídeo falso em que o então presidente americano Barack Obama fala de forma sincronizada com o áudio de um discurso anterior feito por ele. Apenas oito anos depois, o vídeo parece tosco, uma situação que deixa especialistas e autoridades alarmados – tudo ficou mais realista e difícil de detectar. Assim, com a sofisticação e popularização de algoritmos, cresceu também o desafio de compreender o que é verdade.

Os deepfakes – vídeos, imagens e áudios manipulados por meio da IA – se consolidaram como ferramentas centrais de fraudes digitais de todos os tipos. Eles variam de golpes financeiros, que exploram a imagem de celebridades, a manipulações políticas cada vez mais verossímeis. É possível manipular até mesmo conversas em tempo real, um efeito colateral do avanço da IA generativa, algoritmos capazes de produzir conteúdo.

“Existem deepfakes em áudio, que talvez sejam os mais convincentes. Imagens e vídeos também são muito realistas, a ponto de inúmeros casos de fraudes financeiras terem ocorrido nos últimos meses. Produzir ou manipular desinformação é tão simples quanto alguns cliques do mouse, já que a IA generativa reduz os custos e a necessidade de habilidades técnicas”, explica Ben Colman, cofundador da startup de detecção de deepfakes Reality Defender.

“Dois anos atrás, praticamente não tínhamos geração de vídeo de qualidade. Hoje, já produzimos vídeos de 5 a 10 segundos, e nos próximos anos essa tecnologia deve avançar consideravelmente”, destaca o professor Anderson Rocha, coordenador do Recod.ai, laboratório de IA da Universidade Estadual de Campinas (Unicamp). Ele cita alguns fatores para o salto: os modelos de difusão e transformer (arquiteturas mais complexas capazes de gerar imagens e textos de maior qualidade); a ferramenta VALL-E da Microsoft (capaz de replicar vozes a partir de poucos segundos de áudio); e o Runway (capaz de integrar vídeo, áudio e texto).

Com tudo isso, as barreiras para criação de conteúdo manipulado desapareceram quase completamente. “Antigamente, uma falsificação exigia certos conhecimentos avançados em editores de imagem, como Photoshop. Com as ferramentas de IA generativa, qualquer pessoa pode criar conteúdo”, diz Rocha. O caso da imagem do Papa Francisco de “casacão rapper” já se tornou um clássico dos potenciais perigos da tecnologia.

Plataformas como Meta, Google e Microsoft democratizaram ainda mais esse acesso com a integração de ferramentas de geração de imagens, como o Gemini e o Image Creator – pouco ajuda o fato de que esses serviços mantêm políticas de uso contra o uso fraudulento de IA. Com menos restrições que seus pares, o Grok, de Elon Musk, é capaz de gerar imagens de cunho político, normalmente barradas em outras plataformas. Um estudo da organização Newsguard mostra que o aplicativo produziu conteúdos com potencial de impulsionar falsas narrativas em 80% dos casos testados.

“Você pode entrar no WhatsApp e pedir uma imagem para a Meta AI. É possível gerar imagens em 30 segundos, e com uma qualidade que dificilmente uma pessoa consegue distinguir a imagem fake de uma real”, resume Fernando Osório, professor da Universidade de São Paulo em São Carlos. Ele lembra de um exemplo que circulou recentemente nos apps da Meta: uma imagem que mostrava o letreiro de Hollywood em chamas durante os incêndios na Califórnia.

Se os erros nas mãos, cabelos ou nos cenários eram uma forma simples de identificar as criações sintéticas, esse desafio se tornou ainda mais complexo. “Já chegamos a um ponto onde é praticamente impossível identificar o falso manualmente”, diz Colman.

Osório resume como esse tipo de avanço ocorre: “Cada vez que uma falha é detectada na produção de imagem, surge uma nova versão para corrigir. E isso não acaba nunca”.

Em meio a tanta coisa falsa o que sobra de real? “A voz é falsa, a imagem é falsa, e a interação torna isso muito verídico. Provar que eu sou eu, por vídeo, talvez já não seja mais suficiente”, diz Osório.