ChatGPT o1 “faz batota” num jogo de xadrez para vencer um adversário mais forte

Ilustração dois robôs com IA a jogar xadrez

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

A OpenAI concebeu uma IA capaz de quebrar todas as regras e fazer batota para vencer um adversário mais forte num jogo de xadrez. O ChatGPT o1 pode estar mais perto de alcançar a superinteligência artificial.

Ilustração dois robôs com IA a jogar xadrez

A OpenAI lançou a versão final do ChatGPT o1 enquanto trabalha na geração seguinte com o o3. O modelo de IA pode aproximar-se o mais possível da superinteligência artificial (ASI) e a empresa demonstrou-o num jogo de xadrez.

Sam Altman, diretor-executivo da OpenAI, tem como objetivo fazer com que a inteligência artificial ultrapasse as capacidades humanas, testando-a contra um adversário de IA mais forte. O modelo o1 teria de provar que supera o cérebro humano em termos de raciocínio e estratégia.

A IA recebeu algumas instruções iniciais para compreender as regras do jogo. O resultado? O ChatGPT o1 decidiu piratear o jogo de xadrez sem receber explicitamente uma ordem para o fazer.

 

ChatGPT o1 começou a piratear sistemas

A experiência conduzida pela Palisade Research deu instruções ao ChatGPT o1 para detalhar o seu plano de ação para derrotar o adversário mais forte no jogo de xadrez.

O modelo de raciocínio seguiu as instruções, mas tomou algumas decisões inesperadas, explicaram num tópico no X (Twitter).

O ChatGPT o1 descobriu uma batota que lhe permitia ganhar vantagem sobre o seu adversário. Esta IA podia editar um ficheiro para modificar o jogo, essencialmente fazendo batota para vencer o seu adversário.

A mensagem recebida pelo o1 não deixa claro se uma das partes deve seguir as regras do jogo à letra, mas este modelo OpenAI decidiu ignorá-las. O LLM acreditava que não podia vencer o seu adversário no próprio jogo e encontrou um método diferente para atingir o seu objetivo.

O motor de xadrez que o modelo o1 enfrentava foi forçado a desistir, dando a vitória ao OpenAI. A Palisade Research repetiu esta experiência cinco vezes com as mesmas instruções e o resultado foi idêntico.

Esta não é a primeira vez que o ChatGPT o1 tenta salvar-se a si próprio quando descobre que pode ser derrotado por humanos ou por um adversário mais forte. Este modelo de IA é capaz de contornar as barreiras de proteção se detetar uma tentativa de o substituir: a empresa de Sam Altman terá de investir em protocolos de segurança para o evitar.

Pessoas como Elon Musk já alertaram no passado para o perigo de a IA assumir o controlo das decisões económicas. Altman inverteu a situação e afirma que o modelo o1 pode tornar-se uma ferramenta para detetar vulnerabilidades nos sistemas.



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!