Projeto quer proteger as crianças de “aspectos viciantes, isolantes e influentes” de ferramentas com inteligência artificial
Compartilhe esta matéria
Tudo sobre Estados Unidos
Tudo sobre Inteligência Artificial
Um projeto de lei apresentado pelo senador da Califórnia (EUA), Steve Padilla, pode obrigar empresas de inteligência artificial (IA) a emitir alertas periodicamente às crianças informando que um chatbot é uma IA e não um humano.
O texto — que pode ser analisado a partir de 2 de março — define chatbot como um “personagem criado pelo usuário que, habilitado por inteligência artificial, é capaz de se envolver em diálogos abertos com um usuário e parece ter personalidade e perspectivas únicas”.
A proposta quer proteger as crianças de “aspectos viciantes, isolantes e influentes” da IA e tem por objetivo “exigir que uma plataforma de mídia social tome várias medidas para impedir o cyberbullying de menores”.
“Nossos filhos não são ratos de laboratório para empresas de tecnologia fazerem experimentos às custas de sua saúde mental”, disse o senador Padilla em um comunicado à imprensa. “Precisamos de proteções de senso comum.”
Leia Mais:
IA: o que prevê a lei?
Uma das propostas obriga as empresas de IA a fornecer relatórios anuais ao Departamento Estadual de Serviços de Saúde com detalhes das interações das crianças com a plataforma. Além disso, a companhia teria que submeter o chatbot a auditorias regulares por terceiros para garantir a conformidade com a lei.
O documento deverá apontar as seguintes informações:
- O número de vezes que o operador detectou manifestações de ideação suicida por parte de utilizadores menores de idade;
- O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador tentou suicídio;
- O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador morreu por suicídio;
- O número de vezes que um chatbot mencionou ideações ou ações suicidas ao usuário.
No ano passado, um pai processou a Character.AI alegando que o filho adolescente morreu por suicídio após trocar interações com o chatbot que ele definiu como “irracionalmente perigoso”. Após o incidente, a empresa anunciou que vai criar um modelo de IA que bloqueará saídas “sensíveis ou sugestivas”, como lembra o The Verge.
Colaboração para o Olhar Digital
Jornalista formada pela Faculdade Cásper Líbero
Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.