O uso indevido de inteligência artificial (IA) voltou ao centro do debate após a explosão de um Tesla Cybertruck em frente ao Trump International Hotel, em Las Vegas, no Ano Novo. O motorista, Matthew Livelsberger, 37 anos, utilizou o chatbot ChatGPT para calcular a quantidade de explosivos no ataque, segundo as autoridades.
O FBI classificou o caso como suicídio, mas destacou o risco de tecnologias de IA em mãos erradas.
O xerife Kevin McMahill afirmou que este foi o primeiro caso registrado nos EUA onde a IA foi usada para construir um dispositivo explosivo. Especialistas alertam que, embora sistemas como o ChatGPT bloqueiem pedidos prejudiciais, brechas podem ser exploradas.
“Mesmo com salvaguardas, criminosos conseguem acessar informações públicas e perigosas”, disse James Andrew Lewis, do CSIS.
Ferramentas de IA podem facilitar crimes, incluindo deepfakes, ataques cibernéticos e disseminação de fake news. Stuart Russell, da Universidade de Berkeley, defende regulamentação urgente:
“Sem controle, os riscos crescerão exponencialmente”.
A OpenAI, criadora do ChatGPT, afirmou que seus modelos são projetados para evitar o uso prejudicial e fornecem apenas informações públicas. Contudo, o caso reforça o apelo por leis mais rígidas.
Em 2023, a União Europeia lançou o AI Act, que limita o uso de IA em aplicações de alto risco. Nos EUA, o debate sobre regulamentação avança, mas o caso de Las Vegas evidencia que o ritmo dos avanços tecnológicos supera as políticas de controle.
O desafio é equilibrar o potencial da IA com a segurança da sociedade.
Leia mais: