Nos últimos dois anos, a introdução do ChatGPT reformulou a maneira como nos relacionamos com informações e tecnologia. No trabalho, na educação ou no dia a dia, a inteligência artificial generativa da OpenAI tem oferecido soluções rápidas e personalizadas para as mais diversas necessidades. Além de agilizar processos, a ferramenta promove maior acessibilidade ao conhecimento, ampliando o acesso à informação. No entanto, seu crescimento também gera preocupações relacionadas à privacidade, ética e segurança digital, em um contexto repleto de oportunidades e desafios.
Lançado em novembro de 2022, o ChatGPT tornou-se um sucesso global, conquistando um milhão de usuários em apenas cinco dias. Para Ricardo Torres, Gerente de Segurança da Informação da Universidade Tiradentes (Unit), essa inovação foi um marco no consumo de informações. “Deixamos de buscar documentos que exigiam leitura e interpretação para um modelo de busca direta, onde as respostas já aparecem moldadas às nossas necessidades”, explica Torres.
Privacidade, Proteção de Dados e Deepfakes
A simplicidade e a eficácia do ChatGPT levaram os usuários a compartilharem cada vez mais dados com a ferramenta, muitas vezes sem considerar os riscos à privacidade. “Como essa e outras ferramentas similares são fáceis de usar e geram resultados convincentes, muitas pessoas acabam inserindo informações sem discernir entre o que é restrito, sigiloso ou público”, alerta Torres, destacando o perigo do vazamento de informações sensíveis.
O sucesso do ChatGPT também estimulou a criação de outras ferramentas de IA capazes de gerar vídeos e imagens de maneira realista e rápida. Embora essa inovação traga benefícios, criminosos têm usado essas tecnologias para criar deepfakes e realizar ataques de phishing. “A falta de regulamentação no uso de IA é preocupante. Enquanto isso, sem maior conscientização, as pessoas continuarão expondo informações sensíveis, muitas vezes inadvertidamente”, ressalta Torres.
Ricardo reforça a importância de conscientizar os usuários sobre o uso responsável da IA para mitigar esses riscos. “Para o público em geral, a conscientização é a medida mais essencial. Já nas empresas, o cenário é mais complexo, exigindo a adoção de serviços específicos para uso corporativo e a criação de políticas que regulam quais dados podem ser compartilhados em plataformas de IA”, observa.
Apesar dos desafios, as possibilidades trazidas pela inteligência artificial no campo da segurança digital são promissoras. “Há impactos positivos, como a automação de tarefas que garante maior agilidade, mas também negativos, como a manipulação massiva de dados de forma rápida e precisa”, avalia Ricardo.
Impactos Positivos da IA na Segurança Digital:
Detecção e Resposta a Ameaças: Identificação de anomalias em grandes volumes de dados, permitindo a detecção de ataques em tempo real.
Automação de Segurança: Monitoramento automático de redes e gerenciamento de vulnerabilidades, otimizando o trabalho das equipes de segurança.
Análise Forense e Investigação: Auxílio na análise de grandes volumes de dados para identificar a origem e o impacto de ataques cibernéticos.
Impactos Negativos da IA:
Ataques Automatizados Avançados: Criminosos podem usar IA para personalizar ataques, tornando-os mais difíceis de serem detectados.
Técnicas de Evasão: Ferramentas de IA podem ser exploradas para criar métodos mais sofisticados de evitar a detecção de atividades maliciosas.
Autora: Laís Marques
Fonte: Asscom Unit