Depois de um ano e meio a trabalhar nos bastidores do ChatGPT, Suchir Balaji já não estava totalmente convencido da bondade do projecto. Quando entrou na empresa, em 2020, pensava que a inteligência artificial podia ser “uma espécie de cientista” recrutada para “resolver problemas insolúveis, como curar doenças e parar o envelhecimento”. Mas, ao longo dos quatro anos seguintes, viu acumularem-se os processos e as críticas ao funcionamento do ChatGPT. E começou a colocar tudo em causa.
Com as dúvidas agora a fervilharem na sua própria mente, não tinha outra opção senão abandonar a OpenAI: “Se acreditam no que eu acredito, têm de sair da empresa”, defendeu numa entrevista ao The New York Times cedida em Outubro. Suchir Balaji demitiu-se em Agosto e tornou-se um denunciante. Quatro meses depois, a 26 de Novembro, foi encontrado morto no apartamento onde vivia na cidade norte-americana de San Francisco. Tinha 26 anos.
Suchir Balaji trabalhava no coração do ChatGPT: dedicou-se, durante um ano e meio, a recolher e organizar as gigantescas bases de dados que alimentariam o produto final do programa. Só no fim de 2022, já com o ChatGPT lançado, é que questionou a ética por detrás da utilização desses dados. “No início não sabia muito sobre direitos de autor ou fair use [uso legítimo]” — um conceito da lei norte-americana que se refere à utilização de material protegido para fins educacionais ou investigação, por exemplo.
I recently participated in a NYT story about fair use and generative AI, and why I’m skeptical “fair use” would be a plausible defense for a lot of generative AI products. I also wrote a blog post (https://t.co/xhiVyCk2Vk) about the nitty-gritty details of fair use and why I…
— Suchir Balaji (@suchirbalaji) October 23, 2024
Isso mesmo foi admitido pelo próprio denunciante na sua conta privada no X: “Quando tentei compreender melhor a questão”, curioso com o conteúdo das acções judiciais movidas contra as empresas de inteligência artificial generativa, “acabei por chegar à conclusão de que o fair use parece ser uma defesa bastante implausível para muitos produtos”. Em última análise, “podem criar substitutos que competem com os dados com que são treinados”.
Foi o que Suchir Balaji explicou ao The New York Times — um jornal que ele próprio contactou para tornar mais públicas as suas preocupações, mas que também já tinha processado a OpenAI e a Microsoft por desconfiar que os seus artigos jornalísticos estavam a ser utilizados para alimentar chatbots como o ChatGPT. “O produto final deles não são cópias exactas dos dados iniciais, mas também não são fundamentalmente novos”, explicou. Era por isso que, para o investigador,”este não é um modelo sustentável para o ecossistema da Internet como um todo”.
Menos de dois meses passados da entrevista ao jornal norte-americano, a polícia de San Francisco dirigiu-se ao apartamento do investigador a pedido de pessoas próximas do denunciante, que não conseguiam entrar em contacto com ele. As autoridades não encontraram quaisquer sinais de crime no apartamento e acreditam que Suchir Balaji pôs termo à própria vida. A família já foi informada da morte.
Fonte oficial da OpenAI reagiu à morte do denunciante. “Estamos devastados por saber desta notícia incrivelmente triste e os nossos corações estão com os entes queridos de Suchir durante este período difícil”, disse um porta-voz da empresa após ter sido contactado pelo Tech Crunch. Outros profissionais da área da inteligência artificial generativa também lamentaram a morte de Suchir Balaji em mensagens publicadas nas redes sociais.
“Esta é uma notícia incrivelmente triste. Suchir era gentil e atencioso. O seu discurso sobre IA e direitos autorais foi muito apreciado por muitas pessoas. Ele fará muita falta”, considerou Ed Newton-Rex, director executivo da Fairly Trained, uma empresa que certifica outras quando utilizam inteligência artificial treinada com dados de forma ética.
Suchir Balaji was a good young man. I spoke to him six weeks ago. He had left OpenAI and wanted to make the world a better place.
This is tragic. https://t.co/1Jqwd26QPd
— Gary Marcus (@GaryMarcus) December 14, 2024
Gary Marcus, um dos nomes mais sonantes no estudo da inteligência artificial, que se considera um “céptico” dos potenciais dessa tecnologia e quer regulá-la, diz ter falado com Suchir Balaji há seis semanas. Numa mensagem publicada no X, o cientista descreveu que o denunciante “queria tornar o mundo um lugar melhor” e o seu desaparecimento é, por isso, “trágico”.