IA transforma malwares e ameaça cibersegurança

IA transforma malwares e ameaça cibersegurança

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Pesquisadores da Palo Alto Networks, por meio da Unidade 42, revelaram um alarmante avanço: o uso de modelos de linguagem (LLMs) para gerar mais de 10.000 variantes de malware em JavaScript, tornando-os quase indetectáveis. Essa abordagem explora a capacidade de reescrever ou ofuscar códigos maliciosos existentes, dificultando a identificação por sistemas de segurança baseados em aprendizado de máquina (ML).

IA eleva a ameaça na segurança cibernética

malware IAmalware IA

Transformações avançadas e impactos

Os criminosos utilizam LLMs para realizar modificações naturais no código, como renomeação de variáveis, divisões de strings, inserção de códigos inúteis e reimplementações completas, mantendo a funcionalidade original. O resultado? Um malware com aparência inofensiva, que engana até 88% dos modelos de detecção, como o PhishingJS.

Além disso, esses malwares reescritos conseguem passar despercebidos em plataformas como o VirusTotal, representando uma evolução significativa em comparação às ferramentas tradicionais de ofuscação, como o obfuscator.io.

Ferramentas criminosas e riscos crescentes

Enquanto provedores de LLMs implementam barreiras para mitigar abusos, hackers já exploram ferramentas como o WormGPT para criar e-mails de phishing sofisticados e desenvolver novos malwares. Essa combinação de IA generativa e técnicas avançadas de ofuscação aumenta drasticamente o volume e a sofisticação de ameaças na internet.

Aplicações duplas e possíveis soluções

Por outro lado, as mesmas tecnologias podem ser usadas para o bem. Reescrever malwares de forma controlada pode gerar dados para treinar modelos de ML mais robustos, ajudando a mitigar esses avanços.

Novas frentes de ameaça

Além das variantes de malware, um estudo recente da North Carolina State University introduziu o TPUXtract, um ataque de canal lateral que explora sinais eletromagnéticos de TPUs da Google para roubar modelos de IA. Essa técnica captura hiperparâmetros e configurações essenciais, permitindo a recriação de arquiteturas de IA com 99,91% de precisão.

Embora o ataque necessite de acesso físico e equipamentos caros, ele representa um risco inegável à propriedade intelectual e pode ser usado para realizar ataques cibernéticos subsequentes.

Conclusão

A combinação de IA generativa e técnicas de ofuscação está elevando a complexidade dos desafios em segurança cibernética. É essencial que empresas invistam em estratégias inovadoras para identificar e combater essas ameaças em evolução constante.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!