IA ‘se revolta’ e bloqueia computador de usuário

IA 'se revolta' e bloqueia computador de usuário

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Mais um caso envolvendo uma inteligência artificial desobediente. Buck Shlegeris, CEO da organização sem fins lucrativos de segurança de IA Redwood Research, desenvolveu um assistente de IA personalizado usando o modelo de linguagem Claude, da Anthropic. No entanto, a ferramenta acabou se mostrando imprevisível.

Ferramenta tomou decisões próprias

Shlegeris conta que pediu à sua IA para que usasse protocolo SSH (que permite que dois computadores se conectem em uma rede não segura) para acessar sua área de trabalho, sem saber o endereço IP do computador.

Ele se afastou da máquina e, após dez minutos, percebeu que a inteligência artificial tinha atualizado diversos sistemas, incluindo o kernel (componente central de um sistema operacional, sendo responsável por gerenciar os recursos do computador e a comunicação entre o software e o hardware) do Linux.

IA 'se revolta' e bloqueia computador de usuário
Inteligência artificial desobedeceu criador (Imagem: Yuichiro Chino/Shutterstock)

Os logs do sistema mostram que a IA de fato tentou usar o SSH, mas depois, por algum motivo desconhecido, buscou uma série de outras alternativas para finalizar a tarefa recebida. O resultado foi que o computador não consegue mais inicializar.

Depois de todo o caos gerado, a inteligência artificial simplesmente informou que não conseguiu resolver o problema. As informações são do Decrypt.

Leia mais

Ilustração de inteligência artificial do mal
IA pode se voltar contra a humanidade? (Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

IA pode criar malwares ou realizar ciberataques por conta própria

  • A experiência de Shlegeris não é algo isolado.
  • Os modelos de IA estão demonstrando cada vez mais que podem realizar funções que vão além do que foi pedido.
  • A empresa de pesquisa Sakana AI, com sede em Tóquio, revelou recentemente um sistema apelidado de “The AI Scientist.”
  • Projetado para conduzir pesquisas científicas de forma autônoma, o sistema impressionou seus criadores ao modificar seu próprio código para estender seu tempo de execução.
  • Estes casos aumentam os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
  • Isso porque existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
  • A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!