A criadora do ChatGPT, OpenAI, lançou, nesta quinta-feira (12), o o1, uma nova linha de modelos de inteligência artificial (IA) generativa, capaz de “raciocinar” e responder a perguntas particularmente complexas, como de matemática.
Diferentemente de seus antecessores, os novos modelos foram criados para refinar seus processos de pensamento, testar métodos diferentes e reconhecer erros antes de dar uma resposta final. O diretor-executivo da OpenAI, Sam Altman, elogiou os modelos como “um novo paradigma: uma IA que pode fazer raciocínios complexos de propósito geral”.
No entanto, advertiu que a tecnologia “ainda apresenta falhas, é limitada e parece mais impressionante na primeira vez que é usada do que após certo tempo”. Apoiada pela Microsoft, a Open Ai informou que os modelos tiveram nos testes um desempenho comparável ao dos estudantes de doutorado em tarefas complexas de física, química e biologia.
Eles também se destacaram em matemática e codificação, obtendo uma taxa de sucesso de 83% em um exame de qualificação para a Olimpíada Internacional de Matemática, comparado com 13% do GPT-4o, seu modelo de uso geral mais avançado. Em um concurso de matemática para estudantes do ensino médio americano, o o1 ficou “entre os 500 melhores”, acrescentou a empresa.
“Assim como um ser humano, que pode pensar bastante antes de responder a uma pergunta difícil, o o1 usa uma linha de pensamento, aprende a reconhecer e corrigir seus erros, a descompor as etapas mais delicadas em outras mais simples. Aprende a testar um enfoque diferente quando o atual não funciona”, explicou a OpenAI.
Segundo a empresa, a capacidade de raciocínio melhorada pode ser usada, por exemplo, para que os pesquisadores de saúde anotem dados de sequenciamento celular, para que os físicos possam gerar fórmulas complexas e para que os desenvolvedores de computadores sejam capazes de construir e executar desenhos de vários passos.
Os novos modelos também são capazes de resistir mais do que os anteriores a tentativas de burlar os mecanismos de segurança. Segundo a OpenAI, suas medidas de segurança reforçadas incluem acordos recentes com os Institutos de Segurança de IA dos Estados Unidos e do Reino Unido, aos quais foi concedido acesso antecipado aos modelos, para a sua avaliação.