AFPi AFP https://istoe.com.br/autor/afp/
10/08/2024 – 13:51
Erros e imprecisões recentes em revistas científicas, como a imagem de um rato com um pênis gigante ou uma perna humana com ossos demais, revelam a utilização cada vez maior da inteligência artificial (IA) nestas publicações, em detrimento da sua qualidade.
Embora especialistas entrevistados pela AFP reconheçam o valor de ferramentas como o ChatGPT para a redação de conteúdos, sobretudo em matéria de tradução para pesquisadores cuja língua materna não é o inglês, as correções recentes de algumas revistas apontam práticas desonestas.
No início deste ano, a imagem de um rato com genitais gigantes, amplamente compartilhada nas redes sociais, levou à retirada de um estudo publicado em uma revista da editora universitária Frontiers, uma das principais no setor.
No mês passado, outro estudo foi retirado depois de mostrar uma imagem de uma perna humana com mais ossos do que o habitual.
Entretanto, para além destas imagens alteradas, o maior choque para o setor vem do ChatGPT, o software desenvolvido pela empresa americana OpenAI.
Em março deste ano, um artigo publicado pelo grupo editorial britânico Elsevier viralizou porque começava com “Certainly, here is a possible introduction for your topic” (Claro, esta é uma possível introdução para o seu tema), uma fórmula típica das respostas do ChatGPT.
Esses erros, que escaparam dos controles dos especialistas encarregados de reler os estudos, são raros e provavelmente não passariam pelos filtros das revistas mais prestigiosas, disseram vários especialistas à AFP.
O uso da IA é muitas vezes difícil de detectar, mas parece estar aumentando na literatura científica.
Andrew Gray, bibliotecário da University College de Londres, examinou milhões de artigos científicos em busca de palavras como “meticuloso”, “complexo” ou “louvável”, frequentemente usadas em excesso pela IA.
Segundo ele, pelo menos 60 mil artigos foram produzidos com a ajuda da IA em 2023, 1% da produção anual, e 2024 deve ocorrer um “aumento significativo” nesses números.
A associação americana Retraction Watch observou um recorde de 13 mil retiradas de artigos no campo científico em 2023, algo nunca visto antes.
Para Ivan Oransky, um dos cofundadores da organização, a IA agora permite “industrializar” a produção de estudos “fraudulentos” por meio de “fábricas” de artigos.
Esses centros de produção em massa geram inúmeros artigos de má qualidade, plagiados ou falsos, diz Elisabeth Bik, uma microbiologista holandesa especializada em detecção de imagens falsas.
Pagas por pesquisadores que estão ansiosos para produzir mais, essas “fábricas” estariam na origem de 2% dos estudos publicados por ano, mas esse número é “disparado” pela IA, diz ela.
Para Oransky, a IA alimenta um “problema esmagador”: a demanda insaciável de artigos por editoras e universidades exerce grande pressão sobre os pesquisadores, que são avaliados de acordo com sua produção, criando assim um “círculo vicioso”.
Em paralelo, as proteções contra essas “fábricas” de pesquisa são inadequadas.
O problema de fraude em massa foi destacado pela compra da editora Hindawi pela empresa americana Wiley, em 2021, que precedeu a retirada de cerca de 11.300 artigos publicados anteriormente pela empresa.
Em uma tentativa de resolver esse problema crescente, a Wiley implementou um “serviço de detecção de fábrica de artigos” que abusam da IA. Paradoxalmente, esse programa se baseia justamente na IA.
Entretanto, na semana passada, um pesquisador americano descobriu o que parece ser uma versão reescrita pelo ChatGPT de um de seus próprios artigos, publicado em uma revista da Wiley.
Samuel Payne, professor de bioinformática da Universidade Brigham Young, nos EUA, disse à AFP que havia solicitado a verificação do estudo em março.
Depois de perceber que se tratava de um “plágio” de seu próprio trabalho reescrito pela IA, se recusou a aprovar a publicação.
Payne disse que ficou “surpreso” ao descobrir que, em vez de retirar o artigo, o trabalho plagiado foi simplesmente publicado em outra revista.
dl/mng/alu/dbh/zm/ln/jc