Ex-investigador da empresa denuncia práticas de treino de IA da empresa. Uma delas é utilizar informação de conteúdo protegido por direitos de autor.
Suchir Balaji, 25 anos, trabalhou durante quatro anos na empresa OpenAI, detentora da mais famosa aplicação de IA, o ChatGPT.
Agora, diz ao The New York Times (NYT) ter abandonado a empresa por preocupações éticas. “Se acreditas no que eu acredito tens de sair da empresa”, conta.
O próprio NYT já chegou mesmo a processar a empresa de IA em dezembro do ano passado por esta ter utilizado conteúdo com direitos de autor do jornal americano sem pedir permissão.
Mas o NYT não foi o único, e a empresa está neste momento a enfrentar diversos processos judiciais, que envolvem artistas, programadores informáticos, editoras de música, entre outros.
Balaji era um dos vários funcionários encarregados de recolher e organizar dados de para treino descobertos da web para que fossem “alimentados” nos grandes modelos de linguagem (LLMs) da OpenAI.
Num comunicado citado pelo NYT, a OpenAI garantiu que os meios para obter informação utilizados pela empresa são legais e “justos para os criadores“: “Construímos os nossos modelos de I.A. utilizando dados publicamente disponíveis, de uma forma protegida pela utilização justa e princípios relacionados”.
Quando o ChatGPT foi lançado, em 2022, Balaji percebeu que este projeto não tinha como objetivo uma investigação de IA à porta fechada, mas sim comercializar informação (que, neste caso, é obtida de forma ilegal). “Este não é um modelo sustentável para o ecossistema da Internet como um todo”, comentou o investigador.
O ex funcionário da OpenAI diz também que “a única saída para tudo isso é a regulamentação“.
Segundo contou Bradley J. Hulbert, advogado especializado no tema, ao NYT, as leis de direitos de autor que neste momento existem ainda não têm em consideração o aparecimento da IA nem as suas implicações no problema.
No seu website, o investigador publicou um ensaio escrito por si sobre os critérios que são e os que deveriam ser utilizados pela IA na procura de informação. Considera ainda que o Congresso americano “deveria intervir” na situação, regulando-a.
Remata ainda um um problema que ecoa: a IA pode utilizar informação verdadeira recolhida de fontes seguras e transformá-la, adulterando-a. “Pensei que a IA era algo que podia ser utilizado para resolver problemas insolúveis, como curar doenças e travar o envelhecimento”, lamentou.
O “problema insolúvel”, no entanto, continua a ser a regulamentação sobre a pesquisa da IA.