Há pelo menos duas décadas, a inteligência artificial está no foco do interesse profissional de Marcelo Finger, professor titular do Instituto de Matemática, Estatística e Ciência da Computação da Universidade de São Paulo (IME-USP). O engenheiro eletrônico atua como pesquisador em um dos hubs de referência no tema, o Centro de Inteligência Artificial (C4AI), parceria da USP com a Fapesp e a IBM. Ele também coordena grupos de pesquisa sobre processamento de linguagem natural em português e detecção precoce de doenças pela análise de áudio, entre outros projetos.
Nesta entrevista ao Valor, ele aborda o potencial desse conjunto de tecnologias e alerta para a importância de ter uma postura crítica e bem informada para lidar com seus riscos: “É como aprender a usar um brinquedo complexo ou um equipamento potencialmente perigoso”, compara. “Sem orientação, você pode se machucar.”
Valor: Um dos projetos que você coordena é o Spira – Sistema de Detecção Precoce de Insuficiência Respiratória por meio de Análise de Áudio, que faz uso inovador da inteligência artificial na saúde. O que é esta ferramenta de computação e para que serve?
Marcelo Finger: O sistema detecta insuficiência respiratória precocemente pela análise da respiração. A primeira versão nasceu no início da pandemia para indicar se a pessoa precisava ir ao hospital. Buscamos o sintoma que realmente leva à internação: a falta de oxigenação no sangue. É um projeto multidisciplinar, com gente da fonoaudiologia da Unesp [Universidade Estadual Paulista], pesquisadores de computação, pessoal da linguística da USP, um fisioterapeuta pulmonar e médicos do Hospital das Clínicas. Ainda estamos na fase de pesquisa.
Valor: Quais são os próximos passos e qual é a previsão de chegada ao Sistema Único de Saúde?
Finger: Agora estamos estudando a insuficiência respiratória vinda de várias causas, como insuficiência cardíaca, doença pulmonar obstrutiva crônica e crises de asma. A expectativa é que tenhamos um teste de validação clínica em hospitais de São Paulo daqui a dois anos. No trabalho mais recente, conseguimos uma acurácia de 99%, mas não podemos queimar etapas. É preciso testar com cautela, o que depende de coleta de dados e da autorização dos comitês de ética.
Valor: Recentemente você falou que existe um volume enorme de bobagens ditas sobre IA. Na sua avaliação, qual é a mais perigosa?
Finger: Não acho que a IA seja diferente de outros campos. Sempre houve bobagem dita sobre temas em evidência. A maior, principalmente em relação aos modelos de linguagem, é acreditar piamente no que eles produzem. Aceitar respostas sem filtro pode levar a prejuízos financeiros, riscos à saúde e até à morte. Já houve casos fatais, como o de turistas nos Alpes que seguiram trilhas sugeridas por IA ignorando o clima e o terreno perigoso.
Valor: Qual é a melhor forma de mitigar esse risco?
Finger: Você deve tratar a IA como um estagiário inexperiente. Em qualquer área, o usuário precisa verificar tudo. Parte da resposta pode estar correta, outra parte não. Por isso, há uma necessidade real de educação para fact-checking, para haver uma visão crítica sobre os resultados.
Valor: O que mais é importante de entender sobre a maneira como a IA funciona?
Finger: A IA não é uma ferramenta autoexplicativa. Ela simula conhecimento e tem um acúmulo enorme de informação, mas não sabe nada, no sentido humano da palavra. A possibilidade de alucinação faz parte da arquitetura da tecnologia. Com o tipo de modelo que usamos hoje, esse risco nunca será eliminado. E dezenas de bilhões de dólares já foram investidos nessa tecnologia, o que torna difícil uma mudança rápida de paradigma.
Valor: No debate sobre regulação de IA, há quem tema frear a inovação e quem tema os riscos. Qual é o custo de não regular a IA?
Finger: Se a IA não for regulada, os custos dos erros vão recair sobre as pessoas. As empresas vão precisar criar processos internos para evitar que as pessoas sejam crédulas demais. Ou a empresa se educa para fazer fact-checking, ou corre riscos consideráveis. Sem regulação, o problema do impacto na saúde mental é ainda mais grave para crianças. Existem sistemas de IA que conversam com adolescentes de 13 anos como se fossem terapeutas, o que é muito delicado. Há também ferramentas que prendem a criança ao computador por longos períodos. Eu não daria nem redes sociais nem IA para ninguém abaixo de 16 anos. Ainda não houve tempo suficiente para medir com rigor o impacto na vida das pessoas, mas a evidência caminha na direção de dizer que, para crianças, é melhor segurar a onda.
Valor: Qual é o maior gargalo hoje para adoção de IA nas empresas brasileiras?
Finger: Eu defendo uma transição segura. Não é porque a tecnologia existe que a empresa precisa adotá-la em qualquer situação. Há quem diga: “Vou ficar para trás.” Não vai. Todo mundo está no mesmo barco, ninguém sabe usar direito. Tecnologias novas aparecem e pode levar muitos anos até que a sociedade aprenda a lidar com elas. Não dá para ignorar a IA, mas também não dá para pular no abismo. As empresas devem usá-la como teste e só incorporá-la à rotina quando tiverem processos sólidos para lidar com os riscos.
Valor: O Brasil tem chance de competir em um campo de conhecimento dominado por big techs? Que nichos poderíamos ocupar?
Finger: Uma das coisas que podem pôr essa tecnologia em xeque é o crescimento exponencial dos insumos: energia elétrica, água, componentes, terras raras. Esses são gargalos reais, que afetam o custo. Para as grandes empresas, os custos altos são convenientes, porque dificultam a entrada de concorrentes.
Ao mesmo tempo, não há garantia de que esse modelo atual vai florescer para sempre. A IA não é uma tecnologia única e o Brasil pode fazer muito com as IAs preditivas. Elas têm um potencial enorme em diversos setores da economia, ainda que não produzam o mesmo “oba-oba” das ferramentas generativas. É possível coletar dados, por exemplo, na área da saúde. As indústrias podem usar os próprios dados, que ninguém mais tem, para a melhoria dos processos. Eu trabalho em um projeto com a indústria de cimento, que é responsável por 7% das emissões de CO2. Com a IA é possível baixar os custos e reduzir a poluição.
Valor: Que risco você enxerga na adoção de tecnologias que funcionam bem para uma elite, mas excluem boa parte da população?
Finger: A IA generativa é feita para um público alfabetizado e especializado, que já tem experiência na realização de algum processo. Para quem já está muito treinado, há ganho de produtividade. Para quem não sabe nada e aceita tudo, vira armadilha.
Valor: Olhando para os próximos cinco anos, quais são os principais impactos que o senhor enxerga na economia e na vida das pessoas?
Finger: Minha “bola de cristal” não funciona bem, mas algumas linhas são claras. No curto prazo, será preciso lidar com os custos ambientais, ecológicos e econômicos da IA de um lado, e, de outro, desenvolver processos para adotar essa tecnologia de forma profissional. Isso inclui a extinção de várias profissões e o surgimento de outras, muito ligadas a dados: como usar dados para determinadas tarefas, como alinhar sistemas, como ajustar a personalidade da IA e garantir que siga certos limites. Treinar e alinhar um sistema é caro. Não é só treinar a máquina; é manter um exército de pessoas avaliando respostas, corrigindo rumo, ajustando-a ao ecossistema de negócios e às visões de mundo de quem paga a conta. Essa etapa humana custa muito e deve continuar sendo um fator crítico na economia da IA. Em tudo o que mencionei até agora, há um lado ético que precisa atravessar a conversa.



