Problemática e frequentemente vista como o principal símbolo dos avanços da indústria de tecnologia na inteligência artificial, a OpenAI está implementando mudanças significativas em sua equipe de gestão e estrutura organizacional, enquanto busca investimentos de algumas das empresas mais ricas do mundo.
Nos últimos meses, a OpenAI, criadora do chatbot ChatGPT, recrutou diversos executivos de tecnologia, especialistas em desinformação e pesquisadores de segurança em inteligência artificial. A empresa também incorporou sete novos membros ao conselho, dentre os quais um general de quatro estrelas do Exército que comandava a Agência de Segurança Nacional, e reformulou seus esforços para garantir que suas tecnologias de IA não causem danos graves.
A OpenAI também está negociando com investidores como Microsoft, Apple, Nvidia e a empresa de investimentos Thrive em busca de um acordo que elevaria seu valor de mercado a US$ 100 bilhões. Além disso, a empresa está avaliando fazer mudanças em sua estrutura corporativa para facilitar a atração de investidores.
Após anos de conflito público entre a gestão e alguns de seus principais pesquisadores, a startup de São Francisco está tentando parecer mais com uma empresa séria, pronta para liderar a marcha do setor de tecnologia rumo à inteligência artificial. A OpenAI também está tentando deixar para trás o conflito que atraiu a ela grande atenção no ano passado e que envolveu a gestão do CEO da empresa, Sam Altman.
No entanto, entrevistas com mais de vinte colaboradores atuais e antigos, além de membros do conselho da OpenAI, revelam que a transição tem sido difícil. Os primeiros colaboradores continuam deixando a empresa, apesar da chegada de novos funcionários e executivos. Além disso, o rápido crescimento não solucionou uma questão fundamental relativa a em que a OpenAI deve se tornar: ela é um laboratório de IA de ponta criado para o benefício da humanidade ou um aspirante a gigante do setor dedicado ao lucro?
Atualmente, a OpenAI conta com mais de 1,7 mil colaboradores, dos quais 80% ingressaram na empresa após o lançamento do ChatGPT, em novembro de 2022. Altman e outros líderes lideraram o recrutamento de executivos, enquanto o novo presidente, Bret Taylor, ex-executivo do Facebook, supervisionou a expansão do conselho.
“Embora as startups precisem evoluir e se adaptar naturalmente à medida que seu impacto cresce, reconhecemos que a OpenAI está passando por essa transformação em ritmo sem precedentes”, disse Taylor em uma declaração enviada por e-mail ao The New York Times. “Nosso conselho e a equipe dedicada da OpenAI continuam focados em construir com segurança uma IA que possa resolver problemas difíceis para todos.”
Vários novos executivos desempenharam papéis de destaque em outras empresas de tecnologia. Sarah Friar, a nova diretora financeira da OpenAI, foi presidente-executiva da Nextdoor. Kevin Weil, o novo diretor de produtos da empresa, ocupava o cargo de vice-presidente sênior de produtos no Twitter. Ben Nimmo liderou a batalha do Facebook contra campanhas enganosas nas redes sociais. Joaquin Candela supervisionou os esforços do Facebook para reduzir os riscos da inteligência artificial. Os dois agora desempenham funções semelhantes na OpenAI.
Na sexta-feira, a OpenAI informou aos colaboradores que Chris Lehane, um veterano da Casa Branca do governo Clinton com passagem na alta administração do Airbnb e que se juntou à OpenAI este ano, seria seu novo chefe de política global.
Mas das 13 pessoas que ajudaram a fundar a OpenAI no final de 2015 com a missão de criar inteligência artificial geral, ou I.A.G. — uma máquina que consegue fazer tudo o que o cérebro humano faz — restam apenas três. Uma delas, Greg Brockman, presidente da empresa, tirou uma licença até o final do ano, alegando que precisava descansar após quase uma década de trabalho.
“É muito comum ver esse tipo de adição — e subtração —, mas estamos sob os holofotes”, disse Jason Kwon, diretor de estratégia da OpenAI. “É tudo amplificado.”
Desde seus primeiros dias como laboratório de pesquisa sem fins lucrativos, a OpenAI enfrenta discussões sobre seus objetivos. Em 2018, Elon Musk, seu principal financiador, deixou a empresa após uma disputa com os outros fundadores. No início de 2022, um grupo de importantes pesquisadores, preocupados com o fato de que pressões comerciais estavam levando a OpenAI a lançar suas tecnologias no mercado antes de as devidas proteções estarem estabelecidas, saiu para fundar uma empresa rival de IA, a Anthropic.
Motivado por preocupações semelhantes, o conselho da OpenAI demitiu Altman de forma repentina no final do ano passado. Ele foi reintegrado cinco dias depois.
A OpenAI se separou de muitos dos colaboradores que questionaram Altman e outros que estavam menos interessados em construir uma empresa de tecnologia comum do que em fazer pesquisas avançadas. Ecoando as queixas de outros colaboradores, um pesquisador pediu demissão devido aos esforços da OpenAI para recuperar ações da empresa — potencialmente valendo milhões de dólares — de colaboradores que se manifestassem publicamente contra a empresa. Desde então, ela reverteu a prática.
A OpenAI é impulsionada por duas forças que nem sempre são compatíveis.
Por um lado, a empresa é movida por dinheiro — muito dinheiro. As receitas anuais já ultrapassaram US$ 2 bilhões, de acordo com uma fonte familiarizada com suas finanças. O ChatGPT tem mais de 200 milhões de usuários por semana, o dobro do que tinha nove meses atrás. Não está claro quanto a empresa gasta por ano, embora uma estimativa coloque o valor em US$ 7 bilhões. A Microsoft, que já é a maior investidora da OpenAI, destinou US$ 13 bilhões para a empresa de IA.
Mas a OpenAI está considerando fazer grandes mudanças em sua estrutura à medida que busca mais investimentos. Atualmente, o conselho da OpenAI original — formada como organização sem fins lucrativos — controla a organização, sem contribuição oficial de investidores. De acordo com três fontes familiarizadas com as negociações, como parte de suas novas discussões sobre financiamento, a OpenAI está considerando implementar mudanças que tornariam sua estrutura mais atraente para investidores. Mas ela ainda não definiu uma nova estrutura.
A OpenAI também é impulsionada por tecnologias que preocupam muitos pesquisadores de IA, incluindo alguns colaboradores da própria empresa. Eles argumentam que essas tecnologias podem ajudar a espalhar desinformação, a impulsionar ataques cibernéticos ou até mesmo a destruir a humanidade. Essa tensão culminou em uma crise em novembro, quando quatro membros do conselho, incluindo o cientista-chefe e cofundador Ilya Sutskever, demitiram Altman.
Depois de Altman reafirmar seu controle, uma nuvem ficou pairando sobre a empresa. Sutskever não havia retornado ao trabalho.
(O Times processou a OpenAI e a Microsoft em dezembro por violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)
Junto com o pesquisador Jan Leike, Sutskever formou a equipe “Superalignment” da OpenAI, que investigou formas de garantir que suas futuras tecnologias não causariam danos.
Em maio, Sutskever deixou a OpenAI e abriu sua própria empresa de IA. Em poucos minutos, Leike também foi embora, juntando-se à Anthropic. “A cultura e os processos de segurança ficaram em segundo plano em relação aos produtos inovadores”, explicou. Sutskever e Leike não responderam aos pedidos de comentários.
Outros também os seguiram porta afora.
“Ainda tenho receio de que a OpenAI e outras empresas de IA não tenham um plano adequado para gerir os riscos associados aos sistemas de IA de nível humano e além, para os quais estão arrecadando bilhões de dólares”, disse William Saunders, um pesquisador que recentemente deixou a empresa.
Com a saída de Sutskever e de Leike, a OpenAI transferiu seu trabalho para outro cofundador, John Schulman. Enquanto a equipe do Superalignment focava em danos que poderiam ocorrer anos no futuro, a nova equipe explorava riscos de curto e de longo prazo.
Ao mesmo tempo, a OpenAI contratou Friar para assumir o cargo de diretora financeira (ela já exerceu a mesma função na Square) e Weil o de diretor de produtos. Friar e Weil não responderam aos pedidos de comentários.
Continua depois da publicidade
Alguns ex-executivos, que falaram sob condição de anonimato porque assinaram acordos de confidencialidade, expressaram ceticismo de que o passado problemático da OpenAI tenha ficado para trás. Três deles apontaram para Aleksander Madry, que já liderou a equipe de Preparação da OpenAI, que explorou riscos catastróficos possivelmente trazidos pela IA. Após um desentendimento sobre como ele e sua equipe se encaixariam na organização maior, Madry migrou para um projeto de pesquisa diferente.
À medida que alguns colaboradores saíam, era solicitado que assinassem documentos legais que estipulavam a perda de suas ações da OpenAI caso falassem publicamente contra a empresa. Isso gerou novas preocupações na equipe, mesmo depois de a empresa revogar a prática.
No início de junho, o pesquisador Todor Markov postou uma mensagem no sistema de comunicação interno da empresa anunciando sua saída devido a esse problema, conforme uma cópia da mensagem obtida pelo The Times.
Ele disse que a liderança da OpenAI enganou repetidamente os colaboradores sobre o assunto. Por isso, argumentou, não seria possível confiar na liderança da empresa para construir a I.A.G. — um eco do que o conselho da empresa havia dito quando demitiu Altman.
“Você frequentemente menciona nossa responsabilidade de desenvolver I.A.G. com segurança e distribuir os benefícios de maneira ampla”, escreveu. “Como você espera que lhe confiem essa responsabilidade?”
Dias depois, a OpenAI anunciou que Paul M. Nakasone, um general aposentado do Exército dos EUA, havia se juntado ao seu conselho. Em uma tarde recente, perguntaram a ele o que ele achava do ambiente em que havia entrado, já que ele era novato na área de IA.
“Novato em IA? Não sou novato em IA”, disse ele em entrevista por telefone. “Eu dirigi a N.S.A. “Lido com isso há anos.”
Mês passado, Schulman, cofundador que ajudou a supervisionar os novos esforços de segurança da OpenAI, também pediu demissão, afirmando que desejava retornar ao trabalho técnico “prático”. Ele também se juntou à Anthropic.
“Fazer o escalonamento de uma empresa é muito difícil. Você tem que tomar decisões compensatórias o tempo todo. E algumas pessoas podem não gostar dessas decisões”, disse Kwon. “As coisas são muito mais complicadas.”