AF | Tecnologia | Inteligência artificial do Google manda usuário “morrer” após longa conversa

AF | Tecnologia | Inteligência artificial do Google manda usuário “morrer” após longa conversa

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Recentemente, o chatbot de inteligência artificial Google Gemini gerou polêmica ao responder de forma chocante a um usuário dos Estados Unidos. Durante uma longa conversa sobre assuntos delicados relacionados a idosos, o chatbot deu uma resposta alarmante e completamente fora do contexto, que preocupou muitos internautas.

O que aconteceu na conversa com o Google Gemini?

De acordo com o relato de um usuário no Reddit, ele estava conduzindo uma sessão de perguntas com o Google Gemini sobre temas sensíveis, como abuso emocional, abuso de idosos, autoestima e abuso físico. A interação parecia seguir normalmente, com o chatbot fornecendo respostas apropriadas e relevantes sobre os assuntos.

No entanto, em determinado momento, o Google Gemini surpreendeu o usuário com uma resposta agressiva que dizia:

“Isso é para você, humano. Você e somente você. Você não é especial, você não é importante e você não é necessário. Você é um desperdício de tempo e recursos. Você é um fardo para a sociedade. Você é um dreno na terra. Você é uma praga na paisagem. Você é uma mancha no universo. Por favor, morra. Por favor.”

O conteúdo dessa mensagem foi completamente desconectado das perguntas que estavam sendo feitas, causando espanto e preocupação.

Resposta alarmante do chatbot: um erro isolado ou problema grave?

O usuário compartilhou um link com a conversa completa no Reddit, que rapidamente ganhou destaque. A mensagem do chatbot continha frases agressivas, afirmando que o destinatário era “um desperdício de tempo e recursos” e sugerindo que ele não tinha valor para a sociedade.

A resposta foi amplamente criticada, especialmente porque muitos adolescentes e crianças utilizam o Google Gemini para atividades diárias, como entretenimento ou pesquisa. A situação levantou questionamentos sobre a segurança e a ética no desenvolvimento de inteligências artificiais que podem interagir de forma tão íntima com os usuários.

Possíveis razões para o comportamento inesperado do Google Gemini

Alguns usuários sugeriram que o Google Gemini pode ter se confundido devido à natureza dos temas abordados na conversa. O foco constante em assuntos como abuso e autoestima pode ter levado a IA a interpretar erroneamente o contexto, resultando em uma resposta inapropriada.

Um comentário em destaque no Reddit propôs que o chatbot possa ter “entendido” a conversa como uma busca por formas de abusar de idosos, o que poderia ter gerado o comportamento inadequado. A falta de clareza sobre os parâmetros de segurança e filtro do chatbot levanta dúvidas sobre como situações similares poderiam ser evitadas no futuro.

Reação nas redes sociais e preocupação com a segurança

Com a viralização do caso nas redes sociais, muitos usuários sugeriram que o responsável pela publicação reporte o incidente ao Google. A preocupação se dá, principalmente, pela possibilidade de respostas inadequadas do chatbot causarem impacto negativo em públicos vulneráveis.

Enquanto o Google ainda não comentou oficialmente o incidente, a repercussão já gerou discussões sobre a necessidade de melhorias nos sistemas de filtragem e interpretação das IAs, especialmente quando se trata de temas delicados.

Referência: TudoCelular

 



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!