‘Her’ da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI

'Her' da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Assim como Theodore (Joaquin Phoenix) se apaixona pela inteligência artificial (IA) Samantha (Scarlett Johansson) em Her, você pode gamar na voz do ChatGPT. Piadas à parte, é o que diz uma análise de segurança divulgada pela OpenAI nesta quinta-feira (08). Em essência, pelo menos.

Numa linguagem mais técnica, a análise aponta que a voz antropomórfica do ChatGPT pode fazer alguns usuários se apegarem emocionalmente. O documento publicado pela OpenAI expõe quais são os riscos associados ao GPT-4o na perspectiva da empresa, bem como detalhes sobre testes de segurança e esforços para reduzir riscos.

Voz ‘apaixonante’ do ChatGPT pode causar problemas (e a OpenAI sabe disso)

A análise destaca como os riscos relacionados à IA mudam rapidamente, conforme novos recursos aparecem – por exemplo, a interface de voz da OpenAI.

Cena do filme Blade Runner 2049
Antropomorfização da tecnologia pode trazer problemas para vida de usuários (Imagem: Warner Bros)

Uma seção do documento, intitulada “Antropomorfização e Dependência Emocional”, explora problemas que surgem quando usuários começam a lidar com a IA como se fosse uma pessoa. E a voz humanizada parece exacerbar esse, digamos, fenômeno.

Durante o “red teaming” (testes de estresse) do GPT-4o, por exemplo, os pesquisadores da OpenAI notaram instâncias de fala de usuários que transmitiam uma sensação de conexão emocional com o modelo. Por exemplo, as pessoas usavam linguagem como “este é nosso último dia juntos”.

Leia mais:

'Her' da vida real? Voz do ChatGPT pode ser apaixonante, admite OpenAI
Antropomorfização do ChatGPT pode levar usuários a confiarem mais nele – e isso é preocupante (Imagem: Ju Jae-young/Shutterstock)

A antropomorfização pode fazer com que usuários confiem mais no que a IA diz, mesmo quando “alucina” (traz informações incorretas ou desconexas em suas respostas), diz a OpenAI.

Além disso, esse apego pode afetar as relações dos usuários com outras pessoas. “Os usuários podem formar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis”, diz o documento. A vida imita a arte, né?



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!