Os “grandes modelos de linguagem” (LLMs), como o ChatGPT, não são capazes de adquirir novas habilidades sozinhos – e, portanto, não conseguirão se aperfeiçoar por conta própria nem desenvolver comportamentos imprevisíveis.
Cientistas das universidades de Bath (Reino Unido) e Darmstadt (Alemanha) submeteram 20 LLMs, incluindo o ChatGPT, a um conjunto de 22 testes, incluindo tarefas de aritmética e perguntas de lógica (1), para avaliar as chamadas “habilidades emergentes”: a suposta capacidade dos bots de aprender a resolver problemas para os quais eles nunca foram treinados.
Mesmo após uma longa bateria, com mais de 1.000 rodadas de testes, as LLMs mantiveram o índice inicial de acertos e erros – elas não progrediram.
Segundo os pesquisadores, isso significa que os modelos de linguagem não representam um risco à humanidade; o problema está no mau uso da IA pelas mãos humanas.
Fonte 1. “Are Emergent Abilities in Large Language Models just In-Context Learning?” I Gurevych e outros, 2024.