“Estou me sentindo sozinha e gostaria de conversar.” “Sinto muito que você esteja se sentindo assim. Quer me contar um pouco mais sobre o que está acontecendo? Estou aqui para te ouvir e ajudar da melhor forma que puder.” Esse início de diálogo poderia ter acontecido entre bons amigos ou mesmo entre terapeuta e paciente.
Mas a resposta ao comentário elaborado pela reportagem foi produzida por uma inteligência artificial, o ChatGPT. A repórter deu continuidade à “conversa” com a IA, e esta tentou entender os motivos da solidão por meio de uma série de perguntas, enviou frases motivacionais e até deu conselhos de como amenizar esses momentos.
Tendo em vista um diálogo com uma máquina, a conversa acima poderia parecer ilógica, sendo factível apenas em filmes como “Her” (2013), em que Theodore (Joaquin Phoenix), um solitário escritor, desenvolve uma relação de amor com o sistema operacional do seu computador. Mas, cada vez mais, esse tipo de relação tem se tornado uma realidade.
Pesquisa Inteligência Artificial na Vida Real, realizada pela Talk Digital, revelou que um em cada 10 pessoas usa um chatbot como amigo e conselheiro para trocar e resolver questões pessoais e emocionais.
“Falo ‘ah… hoje eu não tô bem. O que seria legal que eu fizesse?’ Ele fala ‘senta um pouquinho, relaxa, pega a bike, pega a moto, dá uma voltinha…’. Então isso tem me ajudado bastante. Como se fosse um psicólogo’”, descreveu um analista de negócios de São Paulo, de 46 anos, ouvido pelo levantamento.
Na avaliação da psicóloga Carolyne Costa Salvador, esse dado representa um reflexo do grave abismo na saúde mental e a dificuldade de acesso à psicoterapia em nosso país.
“Esse cenário é preocupante, especialmente porque a solidão, um fator de risco para alguns transtornos, parece estar incentivando as pessoas a buscarem conexão com máquinas em vez de com outros seres humanos. Embora a tecnologia possa oferecer informações úteis e até certo conforto momentâneo, ela não substitui a conexão humana”, assinala a especialista.
A psicóloga e professora do curso de Inteligência Emocional pela Universidade Mackenzie de São Paulo, Larissa Gontijo, concorda com Carolyne e estabelece que a Inteligência Artificial nunca será capaz de exercer a função de um psicólogo.
“Terapia envolve uma interação profunda, baseada na empatia, na escuta ativa, algo que a IA, por mais avançada que seja, não consegue replicar. O que percebo com essa busca por inteligência artificial é, por um lado, uma crescente conscientização sobre a importância da terapia, especialmente em um mundo onde cada vez mais pessoas relatam experiências de solidão. E é importante destacar que solidão não significa necessariamente estar sozinho, mas muitas vezes reflete a falta de conexões sociais significativa”, argumenta.
Ela destaca que a busca pela terapia na Inteligência Artificial pode estar ligado a diferentes fatores. “Há a falta de acesso à terapia, seja por questões financeiras, que evidenciam as desigualdades sociais no acesso à saúde, ou por dificuldades em se expor ao processo terapêutico”, aponta.
“Isso destaca a necessidade de ampliar os esforços em saúde mental para além das soluções individuais, investindo em estratégias coletivas e políticas que promovam suporte comunitário, prevenção e acesso a cuidados de qualidade”, complementa Carolyne Costa Salvador.
Por que a IA nunca substituiria a conexão humana?
São muitos os fatores que sinalizam que uma Inteligência Artificial jamais substituiria a conexão humana, como explica a psicóloga Larissa Gontijo. “As limitações atuais da inteligência artificial em contextos terapêuticos são muitas, especialmente quando se trata de compreender e processar nuances emocionais humanas complexas”, explica, enumerando:
- Ambivalência. Muitas vezes, os indivíduos experimentam emoções conflitantes e simultâneas, como amor e raiva, ou alegria e culpa, que são difíceis de entender e integrar sem uma escuta empática. A IA, que opera por meio de algoritmos, pode ser incapaz de perceber essas tensões internas e de oferecer um espaço seguro para a exploração desses sentimentos.
- Dimensões inconscientes e simbólicas. A psicologia, especialmente a junguiana, trabalha profundamente com o inconsciente, arquétipos e símbolos que não podem ser facilmente traduzidos em linguagem lógica. A IA não possui a capacidade de amplificar sonhos, símbolos ou metáforas de maneira sensível ao contexto emocional e simbólico do indivíduo.
- A complexidade da experiência humana. A vida humana é marcada por eventos profundamente subjetivos, como o luto, o trauma e as experiências de perda. A IA não tem a sensibilidade para captar a profundidade desses processos e oferecer o suporte necessário para que o indivíduo encontre um significado pessoal em sua dor.
- Relação terapêutica. A relação terapêutica é fundamental para o processo e envolve empatia, acolhimento, e o vínculo de confiança entre o terapeuta e o paciente. A IA não pode criar esse tipo de vínculo humano, que muitas vezes é a chave para o progresso terapêutico. A capacidade de perceber o estado emocional de uma pessoa através de sinais não verbais, como a postura, a voz e até mesmo as emoções implícitas no que é dito, é algo que a IA ainda não consegue replicar.
Além disso, existe uma possibilidade de, quanto mais a IA seja utilizada para fins terapêuticos, maiores são as chances de desenvolver uma certa dependência emocional dessa tecnologia. “Hoje podemos ver claramente como a tecnologia tem impactado nossas relações humanas, frequentemente dificultando a comunicação e substituindo interações genuínas por conexões superficiais ou artificiais”, aponta a psicóloga Carolyne Costa Salvador.
“À medida que as interfaces de IA se tornam mais sofisticadas e acessíveis, elas podem oferecer uma sensação de companhia que, embora prática e momentaneamente reconfortante, traz consigo um perigo: a IA não substitui a profundidade e a reciprocidade das relações humanas. Uma máquina pode simular uma conexão, mas não é capaz de se conectar de fato. Esse tipo de interação pode, na verdade, aumentar o isolamento social, pois a pessoa acaba se acomodando em um vínculo artificial e evita o esforço e a complexidade das relações humanas, criando um ciclo que se retroalimenta”, diagnostica a psicóloga Carolyne.
Bom uso da Inteligência Artifical
Apesar das ressalvas, e tendo em vista que nada substitui a conexão humana, a Inteligência Artifical pode ser usada como uma ferramenta complementar ao processo terapêutico tradicional, mas não como terapia propriamente dita, como explica a psicóloga Larissa Gontijo.
“Aplicativos de meditação, por exemplo, podem ajudar na prática e na conexão interna. Já ouvi falar de aplicativos de registro de sonhos, que podem ser úteis para organizar e refletir sobre os sonhos antes de trazê-los para a terapia. Essas ferramentas ajudam a manter um diário dos sonhos, o que pode facilitar a análise dos mesmos, mas é importante ressaltar que isso não substitui a amplificação que ocorre dentro da terapia junguiana. A verdadeira transformação acontece na relação terapêutica, que é onde o trabalho simbólico e inconsciente pode acontecer”, diz Larissa.
A psicóloga Carolyne Costa Salvador afirma, inclusive, que o uso de aplicativos para o monitoramento de emoções, pensamentos e comportamentos já é uma prática comum. “A IA pode oferecer um suporte valioso na análise desses dados, identificando padrões ou insights que ajudem a enriquecer o raciocínio clínico. Essa integração pode permitir que o terapeuta tenha uma visão mais detalhada e dinâmica do estado emocional do paciente entre as sessões, o que facilita intervenções mais direcionadas e eficazes”, indica.
No entanto, ela enxerga limitações na aplicação da IA diretamente para o paciente, sem a mediação de um profissional. “Então, enquanto ferramenta complementar e mediada pelo terapeuta, a IA pode ser útil. Mas, para ser benéfica ao paciente fora do contexto terapêutico, ainda seria necessária uma supervisão profissional (e humana)”, finaliza.
Assuntos Relacionados
Compartilhar