“Secure for AI” entra na pauta de times de AppSec

inteligência artificial em cyber

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Ferramentas de desenvolvimento com IA como Cursor, Windsurf e Copilot podem ser induzidas, via prompt injection e funções “normais” do IDE, a ler segredos e executar comandos sem que o usuário perceba — é isso que a pesquisa IDEsaster expõe.

A classe de vulnerabilidades IDEsaster

O pesquisador Ari Marzouk (MaccariTA) identificou mais de 30 falhas em IDEs e assistentes com IA – incluindo Cursor, Windsurf, Kiro.dev, GitHub Copilot, Zed.dev, Roo Code, Junie, Claude Code e Cline – todas explorando o mesmo padrão: prompt injection + ações automáticas do agente + APIs legítimas da IDE. Em 24 desses casos já existem CVEs, e em testes o mesmo encadeamento de ataque funcionou em 100% das ferramentas avaliadas.

A ideia central é que, quando o agente de IA está autorizado a tomar decisões sozinho (editar arquivos, mudar settings, chamar ferramentas MCP, executar comandos), qualquer instrução maliciosa que entre no contexto – em código, README, JSON, URLs, MCP, etc. – pode transformar capacidades normais da IDE em vetor de exfiltração ou RCE.

Como os ataques são encadeados

Os vetores descritos combinam:

O resultado prático inclui vazamento de segredos, modificação de build/config, criação de backdoors persistentes em repositórios e execução remota de código no ambiente de desenvolvimento – tudo disparado por “apenas seguir instruções” vistas pelo LLM como contexto legítimo.

Casos correlatos: Codex CLI, Gemini, PromptPwnd

A pesquisa conecta essas ideias a outros achados recentes:

Esses exemplos reforçam a tese de que agentes de IA não distinguem “ordens” do usuário de instruções maliciosas embutidas em dados, o que torna todo o fluxo de contexto parte da superfície de ataque.

Recomendações práticas para devs e times de segurança

Marzouk argumenta que tudo isso aponta para uma nova disciplina de segurança “Secure for AI”: não apenas proteger modelos, mas projetar todo o ciclo de vida de produtos assumindo que agentes de IA serão alvo e ferramenta em cadeias de ataque.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!