Lei na Califórnia quer lembrar crianças que IA não é uma pessoa

Lei na Califórnia quer lembrar crianças que IA não é uma pessoa

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Projeto quer proteger as crianças de “aspectos viciantes, isolantes e influentes” de ferramentas com inteligência artificial

Imagem gerada por IA destaca interação entre criança e tecnologia
Ação é preventiva contra casos de suicídio, por exemplo (Imagem: Cherdchai101/Shutterstock)

Compartilhe esta matéria

Um projeto de lei apresentado pelo senador da Califórnia (EUA), Steve Padilla, pode obrigar empresas de inteligência artificial (IA) a emitir alertas periodicamente às crianças informando que um chatbot é uma IA e não um humano

O texto — que pode ser analisado a partir de 2 de março — define chatbot como um “personagem criado pelo usuário que, habilitado por inteligência artificial, é capaz de se envolver em diálogos abertos com um usuário e parece ter personalidade e perspectivas únicas”.

A proposta quer proteger as crianças de “aspectos viciantes, isolantes e influentes” da IA e tem por objetivo “exigir que uma plataforma de mídia social tome várias medidas para impedir o cyberbullying de menores”.

Lei na Califórnia quer lembrar crianças que IA não é uma pessoa
Empresas de IA terão de fornecer relatórios anuais ao governo (Imagem: BrianAJackson/iStock)

“Nossos filhos não são ratos de laboratório para empresas de tecnologia fazerem experimentos às custas de sua saúde mental”, disse o senador Padilla em um comunicado à imprensa. “Precisamos de proteções de senso comum.”

Leia Mais:

IA: o que prevê a lei?

Uma das propostas obriga as empresas de IA a fornecer relatórios anuais ao Departamento Estadual de Serviços de Saúde com detalhes das interações das crianças com a plataforma. Além disso, a companhia teria que submeter o chatbot a auditorias regulares por terceiros para garantir a conformidade com a lei. 

O documento deverá apontar as seguintes informações:

  • O número de vezes que o operador detectou manifestações de ideação suicida por parte de utilizadores menores de idade;
  • O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador tentou suicídio;
  • O número de vezes que um usuário menor de idade cuja ideação suicida foi detectada pelo operador morreu por suicídio;
  • O número de vezes que um chatbot mencionou ideações ou ações suicidas ao usuário.
Lei na Califórnia quer lembrar crianças que IA não é uma pessoa
Projeto de lei que lembrar crianças que IA não é humana (Imagem: Chainarong Prasertthai/iStock)

No ano passado, um pai processou a Character.AI alegando que o filho adolescente morreu por suicídio após trocar interações com o chatbot que ele definiu como “irracionalmente perigoso”. Após o incidente, a empresa anunciou que vai criar um modelo de IA que bloqueará saídas “sensíveis ou sugestivas”, como lembra o The Verge.


Bruna Barone

Colaboração para o Olhar Digital

Jornalista formada pela Faculdade Cásper Líbero

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.


Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!