Grupos estatais usam Gemini para ciberespionagem

Grupos estatais usam Gemini para ciberespionagem

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Grupos de ciberespionagem apoiados por Estados estão a utilizar o modelo de Inteligência Artificial (IA) Gemini, da Google, para apoiar todas as fases das suas operações ofensivas — do reconhecimento inicial às ações pós-compromisso. A conclusão consta de um novo relatório do Google Threat Intelligence Group (GTIG), que identifica o uso sistemático do modelo por atores associados à China, Irão, Coreia do Norte e Rússia.

Segundo a Google, estes grupos recorreram ao Gemini para tarefas como perfilagem de alvos e recolha de informação em fontes abertas (OSINT), geração de conteúdos de phishing, tradução de textos, desenvolvimento e correção de código, testes de vulnerabilidades e criação de infraestruturas de comando e controlo (C2). “Os adversários APT utilizaram o Gemini para apoiar as suas campanhas, desde o reconhecimento e criação de iscos de phishing até ao desenvolvimento de C2 e exfiltração de dados”, refere o relatório.

Entre os casos identificados, atores chineses, incluindo grupos rastreados como APT31 e Temp.HEX, terão sido responsáveis por criar cenários fictícios para solicitar ao modelo planos de testes direcionados e automatização de análises de vulnerabilidades, incluindo exploração de execução remota de código (RCE), técnicas de bypass de WAF e testes de injeção SQL contra alvos norte-americanos. Outro ator baseado na China utilizou frequentemente o Gemini para depurar código, realizar investigação técnica e obter aconselhamento sobre capacidades de intrusão.

Do lado iraniano, o grupo APT42 explorou o modelo para acelerar campanhas de engenharia social e desenvolver ferramentas maliciosas personalizadas, recorrendo à geração e depuração de código e à pesquisa de técnicas de exploração. A Google identificou ainda utilização do Gemini para adicionar novas capacidades a famílias de malware existentes, como o kit de phishing CoinBait e o downloader HonestCue.

O HonestCue, observado no final de 2025, é descrito como uma framework de prova de conceito que utiliza a API do Gemini para gerar código C# para malware de segunda fase, compilando e executando os payloads diretamente em memória. Já o CoinBait é um kit de phishing disfarçado de plataforma de criptomoedas, com indícios de ter sido desenvolvido com recurso a ferramentas de geração automática de código baseadas em IA. Os investigadores encontraram, por exemplo, mensagens de registo prefixadas com “Analytics:” no código-fonte, um possível indicador de utilização de LLM.

O relatório refere ainda que amostras analisadas sugerem a utilização da plataforma Lovable AI no desenvolvimento de malware, com recurso a componentes como o Lovable Supabase client. Paralelamente, cibercriminosos têm utilizado serviços de IA generativa em campanhas ClickFix, levando utilizadores macOS a executar comandos maliciosos que instalam o infostealer AMOS através de anúncios fraudulentos apresentados em resultados de pesquisa.

Para além do uso ofensivo direto, a Google alerta também para tentativas de extração e destilação do modelo. Em alguns casos, entidades com acesso legítimo à API terão submetido milhares de pedidos estruturados com o objetivo de reproduzir o processo de raciocínio do Gemini e replicar as suas funcionalidades através de técnicas de “knowledge distillation”. Num incidente de larga escala, o modelo foi alvo de cerca de 100 mil prompts destinados a mapear o seu comportamento em tarefas realizadas em línguas não inglesas.

Embora este tipo de ataque não represente uma ameaça direta aos utilizadores finais, a Google considera que constitui um problema comercial e de propriedade intelectual significativo, com potencial para minar o modelo de negócio de IA enquanto serviço.

A empresa afirma ter desativado contas e infraestruturas associadas aos abusos identificados e reforçado os mecanismos de deteção e prevenção no Gemini. A Google garante ainda que os seus sistemas de IA são concebidos com “medidas de segurança robustas e fortes salvaguardas”, sendo regularmente testados e atualizados para melhorar os níveis de proteção.



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!