Projeto quer proteger as crianças de “aspectos viciantes, isolantes e influentes” de ferramentas com inteligência artificial
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 1 Imagem gerada por IA destaca interação entre criança e tecnologia](https://img.odcdn.com.br/wp-content/uploads/2025/02/crianca_ia-1920x1080.jpg)
Compartilhe esta matéria
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 2 Bandeira dos Estados Unidos](https://img.odcdn.com.br/wp-content/uploads/2023/03/bandeira-estados-unidos.jpg)
Tudo sobre Estados Unidos
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 3 Inteligência artificial](https://img.odcdn.com.br/wp-content/uploads/2023/02/inteligencia-artificial.jpg)
Tudo sobre Inteligência Artificial
Um projeto de lei apresentado pelo senador da Califórnia (EUA), Steve Padilla, pode obrigar empresas de inteligência artificial (IA) a emitir alertas periodicamente às crianças informando que um chatbot é uma IA e não um humano.
O texto — que pode ser analisado a partir de 2 de março — define chatbot como um “personagem criado pelo usuário que, habilitado por inteligência artificial, é capaz de se envolver em diálogos abertos com um usuário e parece ter personalidade e perspectivas únicas”.
A proposta quer proteger as crianças de “aspectos viciantes, isolantes e influentes” da IA e tem por objetivo “exigir que uma plataforma de mídia social tome várias medidas para impedir o cyberbullying de menores”.
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 4 Lei na Califórnia quer lembrar crianças que IA não é uma pessoa](https://img.odcdn.com.br/wp-content/uploads/2025/02/iStock-1220799690-1024x683.jpg)
“Nossos filhos não são ratos de laboratório para empresas de tecnologia fazerem experimentos às custas de sua saúde mental”, disse o senador Padilla em um comunicado à imprensa. “Precisamos de proteções de senso comum.”
Leia Mais:
IA: o que prevê a lei?
Uma das propostas obriga as empresas de IA a fornecer relatórios anuais ao Departamento Estadual de Serviços de Saúde com detalhes das interações das crianças com a plataforma. Além disso, a companhia teria que submeter o chatbot a auditorias regulares por terceiros para garantir a conformidade com a lei.
O documento deverá apontar as seguintes informações:
- O número de vezes que o operador detectou manifestações de ideação suicida por parte de utilizadores menores de idade;
- O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador tentou suicídio;
- O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador morreu por suicídio;
- O número de vezes que um chatbot mencionou ideações ou ações suicidas ao usuário.
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 5 Lei na Califórnia quer lembrar crianças que IA não é uma pessoa](https://img.odcdn.com.br/wp-content/uploads/2025/02/iStock-1127811063-1024x481.jpg)
No ano passado, um pai processou a Character.AI alegando que o filho adolescente morreu por suicídio após trocar interações com o chatbot que ele definiu como “irracionalmente perigoso”. Após o incidente, a empresa anunciou que vai criar um modelo de IA que bloqueará saídas “sensíveis ou sugestivas”, como lembra o The Verge.
![Lei na Califórnia quer lembrar crianças que IA não é uma pessoa 6 Bruna Barone](https://img.odcdn.com.br/wp-content/uploads/2024/09/Bruna-Barone-150x150.jpeg)
Colaboração para o Olhar Digital
Jornalista formada pela Faculdade Cásper Líbero
Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.