Whisper Leak: Ataque “espia” temas das conversas com o ChatGPT, Gemini, Grok e mais chatbots – Computadores

Whisper Leak: Ataque “espia” temas das conversas com o ChatGPT, Gemini, Grok e mais chatbots - Computadores

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Os especialistas da equipa de cibersegurança da Microsoft realça que, ao longo dos últimos anos, os chatbots de IA têm ganho cada vez mais espaço na vida de muitas pessoas. À medida que evoluem, estas soluções também são usadas cada vez mais em contextos sensíveis, questões sobre saúde, conselhos legais e conversas pessoais.

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

O método de ataque descoberto, ao qual a Microsoft deu o nome Whisper Leak, explora padrões no tráfego de rede para tentar descobrir os temas das conversas entre os utilizadores e os modelos de IA.

O ataque não “quebra” a encriptação, mas aproveita-se das características do funcionamento dos modelos de linguagem, que permitem gerar respostas em tempo real, mas também uma espécie de “impressão digital” única, que pode ser usada para detetar se alguém está a discutir um determinado tema com um chatbot.

Durante os seus testes, os investigadores da Microsoft verificaram que através deste método de ataque foi possível identificar com mais de 98% de precisão de uma conversa dizia respeito a um determinado tema, neste caso, sobre “lavagem de dinheiro”, entre milhares de outras conversas sobre tópicos diferentes.

Os especialistas simularam também um cenário em que um atacante estava a monitorizar 10.000 conversas, com apenas uma delas a dizer respeito a um tópico sensível. Mesmo neste cenário, o método permitiria ao atacante ter uma precisão de 100% em muitos dos modelos testados.

A Microsoft avança que já estão a ser tomadas medidas para mitigar o problema. Empresas como a OpenAI, Mistral e xAI já avançaram com correções que reduzem a eficácia deste método de ataque. Além disso, a segurança de plataformas como o Azure também foi reforçada, indica a tecnológica de Redmond.

Embora este seja um problema que necessita de ser resolvido pelas empresas responsáveis pelos sistemas de IA, os investigadores explicam que os utilizadores também podem tomar um conjunto de medidas para reforçarem a privacidade dos seus dados.

Nesse sentido, evitar discussões sobre temas sensíveis com chatbots de IA quando está ligado a uma rede pública, usar uma VPN e optar por serviços que já tenham implementado medidas de proteção contra este método de ataque estão entre as principais recomendações da Microsoft.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!