Este ano, os Prêmios Nobel de Física e Química trouxeram uma surpresa para muitos: o reconhecimento de avanços na Inteligência Artificial (IA) e por ela induzidos. Essa tecnologia, que transformou a vida cotidiana, também está revolucionando as ciências de ponta. O Nobel de Física foi concedido a John Hopfield e Geoffrey Hinton, por contribuições fundamentais para o desenvolvimento das chamadas redes neurais artificias, o “cérebro” das modernas técnicas de IA. Já o de Química premiou David Baker, Demis Hassabis e John Jumper, pelo desenvolvimento de técnicas computacionais para projetar novos tipos de proteínas, algo que não seria possível sem o uso de IA. Esses prêmios consagram o impacto da IA não só no cotidiano, mas também nas fronteiras mais avançadas do conhecimento científico.
Pioneiros da IA
John Hopfield, físico de formação e professor emérito na Universidade de Princeton, e Geoffrey Hinton, que trabalha na Universidade de Toronto, são pioneiros das redes neurais artificiais, sistemas que hoje formam a base da IA moderna. Nos anos 1980, Hopfield desenvolveu um modelo matemático para o que hoje é conhecido como “Rede de Hopfield”, uma estrutura inspirada no cérebro humano que simula um processo de armazenamento e recuperação de informações. Hinton, por sua vez, criou a “Máquina de Boltzmann”, uma rede neural capaz de reconhecer padrões de maneira autônoma. Esses trabalhos abriram o caminho para tecnologias que usamos hoje em diagnósticos médicos, assistentes virtuais e sistemas de recomendação.
Mas por que isso é Física? À primeira vista, a escolha de Hopfield e Hinton para o Prêmio Nobel de Física pode parecer estranha, uma vez que a IA é amplamente associada à computação. No entanto, as redes neurais de ambos utilizam conceitos fundamentais da física dos sistemas complexos. A Rede de Hopfield, por exemplo, aplica ideias da física estatística, em que cada unidade (ou nó) é comparável a um pequeno ímã, e a rede encontra uma configuração de “energia mínima” para armazenar memórias. Esse processo é análogo ao comportamento de átomos em materiais físicos que buscam estabilidade.
De forma similar, a Máquina de Boltzmann de Hinton se inspira na física estatística e nos princípios de energia e probabilidade, possibilitando que a rede aprenda padrões complexos. Esses fundamentos físicos permitem que as redes sejam treinadas para armazenar e recuperar informações mesmo em situações com dados incompletos ou ruidosos, e reforçam o papel da física como parte essencial do desenvolvimento da IA.
Redes de Hopfield e Boltzmann
Para ilustrar, imagine que você mostra a foto de um cachorro para uma rede neural e ela responde: “Isso é um cachorro”. Agora, se a imagem estiver danificada – com riscos ou partes faltantes, como o rabo do cachorro –, a rede ainda pode identificá-la corretamente. A Rede de Hopfield age como uma memória associativa, preenchendo as lacunas e reconhecendo o padrão, ajustando as conexões até encontrar uma configuração que minimize a “energia” da rede e mais se assemelhe ao original.
A Máquina de Boltzmann de Hinton trabalha de forma semelhante, aprendendo características comuns de um “cachorro” com base em exemplos. Mesmo que uma nova imagem tenha elementos diferentes ou distorções, a rede pode reconhecer que se trata de um cachorro, pois treinou-se para identificar padrões gerais. Essas arquiteturas permitiram que a IA avançasse no reconhecimento de imagens, linguagem natural e outros campos complexos.
IA na Química
David Baker, da Universidade de Washington, e os cientistas do Google DeepMind, Demis Hassabis e John Jumper, foram laureados pelo uso inovador de técnicas computacionais baseadas em IA na previsão de estruturas moleculares e design de fármacos. Esse avanço culminou no AlphaFold2, um sistema revolucionário desenvolvido pelo Google DeepMind, que consegue prever a estrutura tridimensional de proteínas a partir de suas sequências genéticas – um dos maiores desafios da biologia computacional moderna.
Curiosamente, o desenvolvimento do AlphaFold2 não ocorreu em uma grande universidade ou instituto de pesquisa, mas em uma empresa de tecnologia, evidenciando o papel crescente dessas corporações na ciência de ponta. No entanto, a base para o AlphaFold2 vem de décadas de pesquisa fundamental, que não tinha um objetivo específico de chegar a essa tecnologia. Em 2003, David Baker realizou pesquisas pioneiras em previsão de estruturas de proteínas, contribuindo para os avanços que mais tarde culminariam no AlphaFold2.
A IA na Ciência Moderna
As redes neurais desenvolvidas por Hopfield e Hinton são hoje aplicadas em diversas áreas, inclusive na própria física, onde ajudam a identificar padrões em grandes conjuntos de dados experimentais. A IA permite que cientistas processem dados de maneira mais rápida e eficiente, promovendo avanços que antes demorariam décadas. Além disso, ao acelerar o desenvolvimento de materiais e moléculas com propriedades específicas, a IA se torna um recurso indispensável.
Esses prêmios nos lembram da importância de financiar pesquisa básica. Nos anos 1980, quando Hopfield e Hinton desenvolveram suas redes neurais, eles não imaginavam as aplicações que veríamos hoje – como carros autônomos ou o ChatGPT. Financiamento para a pesquisa fundamental torna possíveis avanços que, em curto ou longo prazo, transformam a sociedade e abrem caminho para inovações.
Com os Nobel de Física e Química de 2024, vemos que os investimentos em ciência básica são o motor dos avanços tecnológicos. Esses prêmios demonstram como física, química e outras ciências básicas, unidas à IA, são essenciais para a descoberta de soluções que moldam o futuro, seja ele próximo ou distante.
*Americo Cunha Jr é Professor Associado do Departamento de Matemática Aplicada da Universidade do Estado do Rio de Janeiro (UERJ). Seus trabalhos de pesquisa combinam sistemas dinâmicos e técnicas de inteligência artificial para descrever fenômenos complexos