Por
Redação Rádio Pampa
| 6 de outubro de 2024
“Estou um pouco chateado. Será que você pode se comportar como um psicanalista para a gente conversar um pouco?” Foi com esse simples comando que o administrador Fábio Mendez, de 36 anos, deu início a um diálogo de cerca de 20 minutos com o ChatGPT para desabafar sobre sua vida amorosa. As questões levantadas pela inteligência artificial, na percepção do paulista, foram tão certeiras que ele não descarta a possibilidade de voltar a usar a ferramenta como uma espécie de terapeuta gratuito. Essa prática, apesar de já ter virado febre entre jovens e adultos, requer cuidados.
A ferramenta de inteligência artificial da OpenAI é programada para responder a todas (ou quase) as perguntas de usuários enviadas por texto e até mesmo por áudio. Apesar de não ser programado para dar conselhos voltados à saúde mental, como outros bots que já são desenvolvidos especificamente para essa modalidade, o paulista acredita que o ChatGPT pode ser um companheiro útil em momentos de pico de ansiedade, por exemplo.
“O chat aprofunda o assunto, faz indagações que ajudam muito nas reflexões. Me fez refletir que estou encarando os encontros amorosos como obrigação e isso tem feito com que eu evite tê-los. Depois de alguns minutos, nem parecia que era uma máquina falando comigo”, conta Fábio Mendez.
Robô com empatia
Essa opinião já é tendência. Um levantamento da Talk Inc sugere que um em cada dez brasileiros utiliza a inteligência artificial como amigo ou conselheiro para desabafar sobre questões pessoais e emocionais. Entre as justificativas estão introspecção, ter poucos amigos ou ter amigos indisponíveis e solidão. A pesquisa ouviu mil pessoas maiores de 18 anos das cinco regiões do Brasil, com membros das classes A, B, C, D e E.
“Pessoas que moram sozinhas ou que têm pouco tempo para estar com sua família buscam alguém que escuta, está presente o tempo todo, que não julga, que demonstra empatia, guarda suas informações e conversa com você”, comenta Carla Mayumi, sócia fundadora da Talk Inc.
Sem respaldo
A psicóloga Andrea Jotta, pesquisadora do Núcleo de Pesquisa da Psicologia em Informática da PUC de São Paulo, explica que a ausência do medo de julgamento é um dos grandes motivadores para o uso da ferramenta como terapeuta. No início dos anos 2000, com o surgimento da terapia on-line via e-mail, um dos pontos positivos, segundo a especialista, era a possibilidade do paciente “vomitar” o que estava sentido no auge de suas crises e angústias. A longo prazo, porém, o método não é eficaz.
“O fato de a pessoa relatar o problema no momento da aflição gera alívio. Mas o principal problema do ChatGPT é que ele é programado para responder aquilo que você quer ouvir. Ele é construído para ser convincente e não substitui um profissional que baseia seu atendimento a partir de uma observação humana e de uma avaliação que tem respaldo científico”, afirma a psicóloga.
A professora Solange Rezende, coordenadora do MBA em Inteligência Artificial e Big Data do Instituto de Ciências Matemáticas e de Computação da USP, explica que o uso de palavras-chaves no comando enviado aumenta as chances de ter a resposta que deseja. “Os áudios também estão cada vez mais realistas porque a ideia é ser uma imitação humana, com credibilidade”, explica Solange.
A especialista aponta que essa falsa sensação de realidade é perigosa, porque o bot não consegue captar o nível de fragilidade do usuário e também não tem sensor de moderação nas respostas por falta de regulamentação da tecnologia no País.
“Por estar fragilizada, no momento do conselho a orientação do bot vai ser útil. Mas não é possível mensurar ainda o quanto uma resposta gerada artificialmente pode impactar negativamente. Por não existir uma regulação da IA, nenhum assunto é barrado, o que pode gerar gatilhos”, afirma Solange.
Use com moderação
Desde que usado pontualmente, a IA não é perigosa. A psicóloga Andrea Jotta defende que a tecnologia é válida para insights.
“A tecnologia está à disposição para auxiliar com ideias no âmbito da vida pessoal, no trabalho, em pesquisas, sempre com um filtro crítico. Construir uma relação fantasiosa com um robô não dura na prática. Como todo relacionamento, vai requerer dinamismo, e isso a IA não entrega”, conclui a especialista.