A OpenAI lançou para todos os seus assinantes pagantes, na semana passada, um novo modelo do GPT. Foi batizado “4o-preview”. Talvez estejam precisando de um estagiário novo no time de marketing que batiza as versões. Mas, apesar de o nome não ajudar em nada, o lançamento é bastante importante. Foi divulgado como primeiro modelo de inteligência artificial capaz de raciocinar, o que faz dele particularmente apto na hora de encarar problemas relacionados ao mundo das exatas, principalmente matemática e física.
Para quem tem pouca experiência com IA, pode soar surpreendente sugerir que os modelos anteriores não eram capazes de raciocinar. Nosso uso passado de computadores e quase toda a ficção científica nos condicionaram a pensar o mundo digital como, por natureza, lógico. Só que os Large Language Models (LLMs), modelos de linguagem de grande porte como GPT, Gemini (Google) e Claude (Anthropic/Amazon) jamais foram bons de lógica. São bons é em criatividade.
- Vera Magalhães: Marçal se perde na narrativa. ‘Machão’ ou vítima?
Sim, a frase causa espanto. Atribuímos criatividade ao mistério do cérebro humano e lógica à frieza das calculadoras. Uma máquina pode seguir regras cartesianas — se isso, então aquilo. Mas criatividade precisa ser orgânica. Só que não é verdade. Mesmo quem inventou os LLMs não compreende bem como funcionam e por que são do jeito que são. Dê ao computador uma quantidade descomunal de dados, estabeleça as regras de como eles se treinarão a partir daquele volume de informação e garanta tempo para que a inteligência artificial nasça. Os modelos surgem com capacidades fascinantes. Cabe a nós primeiro compreendê-los e, na sequência, descobrir para que podem ser úteis.
Uma das teses em curso é que LLMs desenvolveram uma Teoria da Mente. Uma Teoria da Mente faz parte da arquitetura de nossos cérebros. É a capacidade de compreender como a cabeça de outro ser humano funciona, de até intuir como pessoas reagem em determinadas situações. Diversos testes usados por psicólogos para avaliar a capacidade de seres humanos já foram aplicados a modelos de linguagem. Ana põe uma bola dentro de uma caixa, aí sai da sala. Luísa tira a bola da caixa. Quando Ana retorna, onde procurará a bola? Parece um teste bobo, mas, para responder corretamente, é preciso uma quantidade imensa de pressupostos a respeito das expectativas de cada um, de quem sabe o que a cada momento. Existem inúmeras perguntas desse tipo que a maioria de nós responde com facilidade, mas que algumas pessoas, com certas lesões, perdem a habilidade de encarar. E os LLMs mais recentes são cada vez mais capazes de responder.
Isso possivelmente quer dizer que, ao ser treinados com vastas quantidades de texto escrito por seres humanos, de alguma forma os modelos de IA incorporaram algo de como juntamos peças diferentes de informação. No sentido de reunir peças distintas para revelar como se encaixam, às vezes com originalidade, LLMs são capazes de criar. Podemos até hesitar em chamá-los de criativos. Mas é por puro preconceito. Quando queremos, porém, que uma IA como o ChatGPT resolva um problema matemático mais complexo, ela tem sérias dificuldades. Tudo o que envolva raciocínio muito metódico, com passos por seguir em ordem predeterminada, é mais difícil para as IAs.
É justamente nisso que o novo ChatGPT 4o-preview muda. No coração, segue sendo o GPT-4, com o mesmo treinamento. O que ele tem é uma capacidade nova: pensar com método e, quando completa o raciocínio, listar os passos que seguiu. Consegue resolver um desafio complexo de palavras cruzadas. Isso exige experimentar combinações distintas de palavras para ver se funcionam umas com as outras nas linhas verticais e horizontais. É um modelo mais lento, mas é o primeiro LLM capaz de executar a tarefa.
É também o primeiro modelo que a OpenAI torna público informando representar um risco médio. Ele poderia, em algum contexto bastante específico, ser usado para criar armas biológicas. Mas não é só. Os cientistas da empresa tiveram dificuldades de alinhar essa nova versão. LLMs nascem com toda sorte de preconceitos e sem limites de risco. São alinhados posteriormente, num treinamento para incorporar valores éticos e comportamentais. Só então são liberados para uso público. Ao alinhar esse novo GPT, os especialistas perceberam que ele agia com dissimulação. Fingia incorporar as lições para os instrutores, mas sem lhes obedecer de fato.
Pois é, uma IA capaz de ser sonsa. Dissimulada. E com capacidade de matemática. O problema foi resolvido. Mas a gente ainda não chegou ao GPT-5, ao Gemini 2 ou ao Claude 4. Apertem os cintos.