Sem saberem, funcionários divulgam segredos da empresa através do ChatGPT. Como evitá-lo?

Sem saberem, funcionários divulgam segredos da empresa através do ChatGPT. Como evitá-lo?

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

O ChatGPT democratizou verdadeiramente o acesso à Inteligência Artificial (IA), não apenas a estudantes, mas a toda a gente com acesso à Internet. Um novo relatório alerta, agora, que os funcionários divulgam, sem saberem informações sobre as empresas onde trabalham através do ChatGPT.

Sem saberem, funcionários divulgam segredos da empresa através do ChatGPT. Como evitá-lo?

À medida que mais empresas adotam IA generativa como o ChatGPT, Copilot e Claude, com o objetivo de melhorarem a produtividade e o fluxo de trabalho, estão a descobrir que essas ferramentas estão a expor segredos da empresa a um ritmo alarmante.

De acordo com um novo relatório da Cyera, os chatbots de IA são, agora, a principal causa de fuga de dados no local de trabalho, ultrapassando, pela primeira vez, o armazenamento em nuvem e o e-mail.

De forma preocupante, a maioria dessas fugas está a acontecer discretamente, passando despercebidas pelas empresas.

A investigação mostra que quase 50% dos funcionários de empresas estão a usar IA generativa no trabalho, muitas vezes colando informações confidenciais, como informações financeiras, dados pessoais identificáveis e até documentos estratégicos, diretamente em chatbots de IA.

Apesar de este tipo de informação não dever ser partilhado com chatbots de IA, o fenómeno está a ocorrer por meio de contas pessoais e não geridas, como ChatGPT ou Gemini, tornando-as invisíveis para os sistemas de segurança corporativos.

No entanto, 77% dessas interações envolvem dados reais da empresa.

Chatbot, IA

Conforme a investigação, como os dados são partilhados por via de ações de copiar/ colar nas janelas de chat, e não por uploads diretos de arquivos, contornam completamente as ferramentas tradicionais de prevenção.

Outro relatório de 2025, conduzido pela LayerX, descobriu que 67% das interações de IA acontecem em contas pessoais, pelo que as equipas de TI não podem monitorizá-las ou restringi-las.

Como evitar esta partilha de dados através dos chatbots de IA

Os relatórios não sugerem proibir totalmente a IA, conforme compilado, mas antes alertar as empresas e os utilizadores para que reforcem os controlos, melhorem a visibilidade e forneçam supervisão crítica, nomeadamente por via de:

  • Bloquear o acesso à IA generativa a partir de contas pessoais;
  • Exigir o login único para todas as ferramentas de IA utilizadas em dispositivos da empresa;
  • Monitorizar palavras-chave sensíveis e a atividade da área de transferência;
  • Trate as interações de chat com o mesmo rigor que as transferências de ficheiros;
  • Se for um funcionário, não cole nada num chat de IA que não publicaria publicamente na Internet.

Uma vez que a IA é relativamente nova para todos os utilizadores comuns, os funcionários estão, também, a aprender a usar as ferramentas e a reconhecer as suas limitações.

Cabe, portanto, a cada empresa, gerir a introdução destas novas ferramentas nos ambientes de trabalho, de forma segura, e a cada utilizador compreender que um simples copiar/ colar pode ser suficiente para expor informação confidencial.



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!