Os perigos das deepfakes criadas com IA em ano de eleição

Os perigos das deepfakes criadas com IA em ano de eleição

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

No início deste ano, as autoridades dos Estados Unidos tiveram um caso de uso de IA – Inteligência Artificial para tentar influenciar o resultado das eleições presidenciais deste ano no país. 

O caso tratava-se de um deepfake, que usava IA para simular a voz do presidente Joe Biden. Na gravação, a voz pedia aos membros do partido democrata que não participassem das primárias que aconteceram no dia 23 de janeiro. 

No Brasil, o TSE regulamentou o uso da IA na propaganda de partidos, coligações, federações partidárias, candidatas e candidatos nas eleições municipais de 2024. 

O uso de deepfakes foi proibido, e também foi estabelecida a obrigação de informar sobre a utilização de IA em campanhas eleitorais. Além disso, foram impostas restrições ao uso de robôs para intermediar o contato com eleitores e as big techs passaram a ser diretamente responsabilizadas por não removerem de imediato conteúdos que promovam desinformação, discurso de ódio, ideologias nazistas e fascistas, bem como aqueles que sejam antidemocráticos, racistas ou homofóbicos.

IA tem capacidade de influenciar decisões no mundo digital, diz pesquisa

No estudo “The influence of algorithms on political and dating decisions” (A influência do algoritmo na decisão política e amorosa) as acadêmicas de psicologia, Ujué Agudo e Helena Matute, pesquisadoras da Universidad de Deusto, na Espanha, revelaram como a inteligência artificial pode manipular decisões no mundo digital. Elas também avaliaram a facilidade do ser humano em ser influenciado por algoritmos no posicionamento político e nas preferências de relacionamento.

Além disso, o CEO da OpenAI, Sam Altman, disse durante uma audiência no senado dos EUA em 5/23 que estava preocupado com a possibilidade de algumas pessoas usarem modelos de linguagem para manipular, persuadir e se envolver em interações individuais com os eleitores.

Nesse sentido, usar a tecnologia unicamente para persuadir e manipular é algo grave, podendo gerar consequências significativas para a autonomia e a liberdade de escolha dos indivíduos. Quando algoritmos são utilizados de forma indiscriminada para moldar opiniões políticas ou influenciar decisões pessoais, isso coloca em risco a integridade das interações humanas e ameaça os princípios democráticos e os direitos de privacidade. A manipulação por meio da inteligência artificial, sem uma regulamentação adequada, pode minar a confiança pública nas instituições e gerar um ambiente de desinformação e polarização.

A importância da transparência e responsabilidade legal na internet

A inteligência artificial é conhecida como uma tecnologia de propósito geral, pois tem o potencial de transformar profundamente a lógica de funcionamento da sociedade. 

Essa definição se dá porque a IA, assim como a descoberta do carvão, a energia elétrica e a computação, impacta praticamente todas as áreas da vida cotidiana, desde a economia até a maneira como interagimos uns com os outros. 

No entanto, essa capacidade de transformação também exige uma regulamentação cuidadosa para garantir que seu uso seja ético, transparente e beneficie a sociedade como um todo.

Atualmente, discute-se a criação de uma legislação específica para regular o uso da IA, tanto no Brasil quanto em outras partes do mundo. Essa regulamentação deve equilibrar a promoção da inovação tecnológica com a proteção dos direitos fundamentais, como a privacidade, a liberdade de expressão e a não discriminação. 

A União Europeia, por exemplo, já deu passos significativos nessa direção com o Artificial Intelligence Act, que visa criar um conjunto de regras para garantir que a IA seja desenvolvida e utilizada de maneira ética. O objetivo é estabelecer um marco legal que classifique os sistemas de IA de acordo com o nível de risco que apresentam à sociedade, com um foco especial em áreas como segurança pública, saúde, infraestrutura crítica e governança. 

Sistemas de alto risco, como aqueles usados em decisões judiciais ou na aplicação da lei, deverão seguir normas rigorosas de transparência, responsabilidade e supervisão. Isso busca garantir que a IA seja usada de maneira que respeite os direitos humanos e proteja a privacidade, ao mesmo tempo que evita o uso de algoritmos em práticas discriminatórias ou abusivas.

Além de estabelecer regras claras, o Artificial Intelligence Act visa criar uma cultura de responsabilidade compartilhada entre desenvolvedores, empresas e governos. Essa abordagem pode servir de exemplo para outros países que buscam regular o uso da IA de forma equilibrada, garantindo que a inovação tecnológica continue a avançar, mas sempre com uma preocupação ética em mente. 

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!