OpenAI tem seu próprio “caçador de ameaças” de IA; entenda

OpenAI tem seu próprio "caçador de ameaças" de IA; entenda

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

O governo americano está preocupado com o impacto da IA nas eleições presidenciais de 2024. E não está sozinho: big techs e desenvolvedoras também querem entender como seus produtos podem ser usados para produzir desinformação e influenciar os rumos da política. Foi nesse cenário que Ben Nimmo virou o “caçador de ameaças” da OpenAI.

Nimmo ganhou notoriedade como um dos primeiros profissionais a identificar como o governo da Rússia tentou interferir nas eleições presidenciais americanas de 2016 online. A OpenAI aproveitou sua expertise e o contratou em fevereiro deste ano com um objetivo claro: fazer o mesmo na corrida presidencial de 2024, só que considerando a IA.

Imagem associando inteligência artificial com eleições
Ben Nimmo ganhou notoriedade desmascarando influência russa nas eleições americanas de 2016 (Imagem gerada por IA via DALL-E/Olhar Digital)

OpenAI tem seu próprio “caçador de ameaças” de IA da Rússia

E não só da Rússia. Nimmo alertou que, além do Kremlin, outros países estão fazendo “experiências com IA” e testando seu alcance entre os eleitores estadunidenses. A contratação vem em um contexto em que a tecnologia se tornou mais acessível e tanto o governo americano quanto as desenvolvedoras querem entender seus impactos na política.

É aí que entra o “caçador de ameaças”. Ele foi responsável por coletar provas de que a Rússia, China e outras nações estavam usando o ChatGPT para gerar publicações online para influenciar o discurso político.

Já como funcionário da OpenAI, Nimmo divulgou este mês um relatório afirmando que a desenvolvedora identificou 20 operações que usam IA com foco nas eleições americanas, e desmantelou quatro. Uma delas incluiu um esquema iraniano para exacerbar a polarização política nos EUA. Outra, uma empresa russa que usou o ChatGPT para gerar notícias falsas e o DALL-E para criar imagens falsas da guerra da Ucrânia.

OpenAI tem seu próprio "caçador de ameaças" de IA; entenda
Objetivo de Nimmo é claro: ajudar a controlar o impacto negativo da IA nas eleições presidenciais dos EUA em 2024 (Imagem gerada com IA via DALL-E/Vitória Gomez/Olhar Digital)

Leia mais:

Segredo é controlar a IA

De acordo com Nimmo ao The Washington Post, nenhuma das operações identificadas pela OpenAI se tornou viral. É aí que, segundo o jornal, entra a importância do “caçador de ameaças”: medir o impacto da IA e combater a desinformação, de forma a mantê-la sob controle. A meta é justamente evitar repetir erros já cometidos por empresas como X e Meta.

Saiba mais sobre a atuação de Ben Nimmo:

  • A ferramenta que mede o impacto da IA foi criada por ele em 2020, quando ainda trabalhava em outra companhia;
  • Durante a entrevista, Nimmo destacou: assim como agentes maliciosos estão usando a tecnologia, pessoas como ele, que não são especialistas, também podem. Isso ajuda a criar um filtro para identificar o que é real ou não;
  • A esperança da OpenAI é usar a expertise do “caçador” para ajudar desenvolvedoras, governo americano e outros líderes do setor a tomar decisões bem posicionadas em relação às ameaças de IA ao redor do mundo – e, se tudo der certo, diminuir seu impacto negativo.



Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!