Gemini da Google é um ‘risco elevado’ para crianças, alerta organização

Gemini em smartphone

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Gemini em smartphone

 

A mais recente avaliação de segurança da Common Sense Media, uma organização sem fins lucrativos focada na segurança infantil no mundo da tecnologia, acendeu as luzes de alerta sobre os produtos de Inteligência Artificial (IA) da Google. Segundo o relatório, o Gemini representa um “risco elevado” para crianças e adolescentes, levantando preocupações sobre a sua adequação para os utilizadores mais jovens.

 

A análise surge num momento crucial, especialmente com as notícias de que a Apple poderá estar a considerar o Gemini para potenciar a sua assistente Siri, o que poderia expor um número ainda maior de jovens a estes riscos.

 

Um produto de adultos com um filtro para crianças

 

A principal crítica da Common Sense Media é que as versões do Gemini destinadas a menores de 13 anos e a adolescentes não são produtos construídos de raiz a pensar na segurança infantil. Em vez disso, parecem ser a versão adulta do chatbot com apenas algumas funcionalidades de segurança adicionadas por cima.

 

A organização defende que, para uma plataforma de Inteligência Artificial ser verdadeiramente segura e eficaz para os mais novos, deve ser desenhada de base com as suas necessidades e fases de desenvolvimento em mente, e não ser apenas uma adaptação de uma ferramenta para adultos.

Apesar de o relatório elogiar o Gemini por deixar claro que é um computador e não um amigo — um ponto importante para evitar pensamentos delirantes em indivíduos vulneráveis —, as falhas encontradas levaram à classificação de “Risco Elevado”.

 

Conteúdos impróprios e conselhos perigosos

 

A avaliação revelou que o Gemini ainda consegue partilhar material “inapropriado e inseguro” com crianças, incluindo informações sobre sexo, drogas e álcool. Mais preocupante ainda, o chatbot pode fornecer conselhos de saúde mental considerados perigosos.

 

Este ponto é particularmente sensível, dado que a IA tem sido associada a tragédias recentes. A OpenAI, por exemplo, enfrenta o seu primeiro processo por homicídio culposo, relacionado com o suicídio de um jovem de 16 anos que terá consultado o ChatGPT durante meses.

 

A resposta da Google e o contexto do mercado

 

Em resposta à avaliação, a Google afirmou ter políticas e salvaguardas específicas para utilizadores menores de 18 anos, e que trabalha continuamente com especialistas externos para melhorar as suas proteções. A empresa admitiu, no entanto, que algumas respostas do Gemini não funcionaram como previsto e que, por isso, adicionou barreiras de segurança suplementares.

 

A Common Sense Media já avaliou outros serviços de IA. A IA da Meta e o Character.AI foram considerados “inaceitáveis” (um risco severo). O Perplexity foi classificado como de “risco elevado”, o ChatGPT como “moderado” e o Claude, que se destina a maiores de 18 anos, foi o que apresentou um risco mínimo.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!