![Esta fotografia mostra o logotipo da Mistral AI, uma start-up de inteligência artificial, e seu chat em sua sede, em Paris, em 15 de janeiro de 2025 Esta fotografia mostra o logotipo da Mistral AI, uma start-up de inteligência artificial, e seu chat em sua sede, em Paris, em 15 de janeiro de 2025](https://i0.statig.com.br/bancodeimagens/bq/0m/e7/bq0me70a9p687v6oo317t9cs7.jpg)
Esta fotografia mostra o logotipo da Mistral AI, uma start-up de inteligência artificial, e seu chat em sua sede, em Paris, em 15 de janeiro de 2025
BERTRAND GUAY
E se os humanos perdessem o controle da inteligência artificial? Reunidos em uma cúpula sobre IA em Paris, os especialistas sublinham a necessidade de estabelecer regras para evitar esse cenário.
Ao contrário das cúpulas anteriores de Bletchley Park (Reino Unido), em 2023, e de Seul (Coreia do Sul), em 2024, que se centraram em questões de segurança, a Presidência francesa pretende que a reunião de segunda e terça-feira coloque a tônica em medidas eficazes de governação da IA.
O objetivo é que o maior número possível de intervenientes nesta nova revolução econômica se comprometa com uma declaração global, mas sem medidas vinculativas.
“O nosso desejo é não gastar o nosso tempo a falar apenas dos riscos. Há uma oportunidade muito real”, declarou à AFP Anne Bouverot, especialmente designada pela Presidência francesa.
Para Max Tegmark, presidente do Future of Life Institute e físico do prestigiado Massachusetts Institute of Technology (MIT), o país não deve perder o “momento crucial” desta cúpula sobre a IA, que reúne os principais intervenientes do setor durante vários dias na capital francesa.
– Ataques cibernéticos, ataques biológicos –
O Future of Life Institute apoia o lançamento de uma plataforma, chamada “GRASP”, que visa mapear os principais riscos relacionados à IA e as soluções desenvolvidas em todo o mundo.
“Identificamos cerca de 300 ferramentas e tecnologias que enfrentam esses riscos”, diz Cyrus Hodes, que coordenou a iniciativa.
Os resultados serão transmitidos à OCDE e aos membros da Parceria Global para Inteligência Artificial (PMIA), da qual a França faz parte e que se reúne no domingo.
O primeiro relatório internacional sobre a segurança da IA, fruto de uma colaboração internacional de 96 especialistas e apoiado por 30 países, pela ONU, pela União Europeia e pela OCDE, foi apresentado na quinta-feira, também com o objetivo de informar os formuladores de políticas sobre os perigos dessa tecnologia.
Embora alguns sejam bem conhecidos, como a criação de conteúdo falso on-line, o pesquisador de ciência da computação Yoshua Bengio, vencedor do prêmio Turing de 2018, diz que “evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos, estão surgindo gradualmente”.
Em longo prazo, ele se preocupa com a “perda de controle” dos seres humanos sobre os sistemas de IA animados por “sua própria vontade de viver”.
“Muitas pessoas achavam que dominar a linguagem, como faz o ChatGPT-4 (chatbot da OpenAI), era ficção científica há apenas seis anos”, lembra Max Tegmark.
“O problema é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral do que de saber como controlá-la”.
– As máquinas estão no comando? –
A inteligência artificial geral seria comparável ou até mesmo superior aos seres humanos, e vários especialistas do ecossistema, como o diretor da OpenAI, Sam Altman, acreditam que ela será alcançada nos próximos anos.
“Se observarmos o ritmo de aumento das capacidades, podemos pensar que chegaremos lá em 2026 ou 2027”, concordou Dario Amodei, diretor da startup americana Anthropic, em novembro.
Com o risco de que, na “pior das hipóteses, essas empresas americanas ou chinesas percam o controle e a Terra seja dominada por máquinas”, argumenta Tegmark.
“A tecnologia está mudando muito rápido”, diz Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e codiretor da Associação Internacional para IA Segura e Ética (IASEAI).
O mais preocupante “seria ter sistemas de armas em que a inteligência artificial controlasse e decidisse quem atacar e quando”, acrescenta.
Para esses especialistas, os Estados devem adotar medidas de proteção.
“Devemos tratar o setor de inteligência artificial da mesma forma que tratamos todos os outros setores”, enfatiza Tegmark.
“Antes de construirmos um reator nuclear perto de Paris, precisamos provar a especialistas nomeados pelo governo que o reator é seguro”, continua ele. “Deve ser a mesma coisa com a IA.”
Uma voz discordante é a do professor de ciência da computação de Berkeley, Michael Jordan, que considera a ideia de uma super IA “absurda”.
A IA “não pode saber tudo, porque o que estou pensando agora é o contexto do que farei em seguida, hoje. Ela não pode saber isso”, diz ele.