Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Assim como Theodore (Joaquin Phoenix) se apaixona pela inteligência artificial (IA) Samantha (Scarlett Johansson) em Her, você pode gamar na voz do ChatGPT. Piadas à parte, é o que diz uma análise de segurança divulgada pela OpenAI nesta quinta-feira (08). Em essência, pelo menos.
Numa linguagem mais técnica, a análise aponta que a voz antropomórfica do ChatGPT pode fazer alguns usuários se apegarem emocionalmente. O documento publicado pela OpenAI expõe quais são os riscos associados ao GPT-4o na perspectiva da empresa, bem como detalhes sobre testes de segurança e esforços para reduzir riscos.
Voz ‘apaixonante’ do ChatGPT pode causar problemas (e a OpenAI sabe disso)
A análise destaca como os riscos relacionados à IA mudam rapidamente, conforme novos recursos aparecem – por exemplo, a interface de voz da OpenAI.
Uma seção do documento, intitulada “Antropomorfização e Dependência Emocional”, explora problemas que surgem quando usuários começam a lidar com a IA como se fosse uma pessoa. E a voz humanizada parece exacerbar esse, digamos, fenômeno.
Durante o “red teaming” (testes de estresse) do GPT-4o, por exemplo, os pesquisadores da OpenAI notaram instâncias de fala de usuários que transmitiam uma sensação de conexão emocional com o modelo. Por exemplo, as pessoas usavam linguagem como “este é nosso último dia juntos”.
Leia mais:
A antropomorfização pode fazer com que usuários confiem mais no que a IA diz, mesmo quando “alucina” (traz informações incorretas ou desconexas em suas respostas), diz a OpenAI.
Além disso, esse apego pode afetar as relações dos usuários com outras pessoas. “Os usuários podem formar relacionamentos sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis”, diz o documento. A vida imita a arte, né?