A OpenAI desenvolveu uma ferramenta para demarcar textos elaborados pelo ChatGPT, mas está na dúvida sobre lançá-la. Uma reportagem do site The Wall Street Journal mostra que a empresa teme afastar usuários caso o recurso de segurança seja implementado.
O recurso é similar às marcas d’água invisíveis de imagens geradas por inteligência artificial, mas aplicada a textos. Basicamente, o modelo tenta prever as palavras e frases mais prováveis depois de uma oração, assim criando um padrão reconhecível — o Google aplica algo parecido no Gemini.
Porém, a ferramenta tem o potencial de afastar usuários que usam o ChatGPT “em segredo”. Um levantamento feito com usuários do chatbot mostrou que 30% dos consumidores evitaria usar a IA se a marca d’água fosse habilitada.
A solução da OpenAI ajudaria a identificar textos produzidos por IA usando “padrões invisíveis” no conteúdo.Fonte: GettyImages
Atualmente, já existem soluções para verificar se um texto foi (ou não) elaborado por inteligência artificial. A própria OpenAI lançou um detector próprio, mas descontinuou a aplicação ao perceber que ele não era tão preciso quanto deveria.
Segundo documentos vistos pelo WSJ, o novo método de detecção acerta 99,9% das vezes. Porém, a ferramenta não é tão eficiente para identificar textos revisados por outro modelo generativo, por exemplo.
De toda forma, se lançado, essa poderia ser mais uma arma de professores e supervisores para conter o uso não autorizado de modelos de linguagem para geração de artigos. Então, poderia ser o fim do uso do ChatGPT para a produção de trabalhos acadêmicos.
Atualmente, não há previsão para a implementação da marca d’água em textos do ChatGPT. Em publicação oficial, a empresa também estuda “métodos menos controversos”, como a marcação nos metadados, mas ainda é cedo para dizer como vai funcionar.