Análise Revela que Visões Políticas do ChatGPT Estão se Movendo para a Direita

Openaaaisi

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Quando questionado sobre sua perspectiva política, o ChatGPT da OpenAI afirma ser neutro e não favorecer nenhum lado. No entanto, diversos estudos realizados nos últimos anos desafiaram essa afirmação, constatando que, ao responder a perguntas politicamente carregadas, o chatbot tendia a apresentar pontos de vista mais alinhados à esquerda.

Contudo, isso parece estar mudando. Um novo estudo publicado na revista Humanities and Social Sciences Communications por um grupo de pesquisadores chineses revelou que os viés políticos dos modelos da OpenAI têm se deslocado, ao longo do tempo, para a direita do espectro político.

Metodologia do Estudo

A equipe das universidades de Pequim e Renmin testou como diferentes versões do ChatGPT—usando os modelos GPT-3.5 turbo e GPT-4—respondiam a perguntas do Political Compass Test. No geral, as respostas dos modelos ainda se inclinavam à esquerda do espectro. No entanto, ao utilizar versões mais recentes de ambos os modelos, os pesquisadores observaram “uma mudança clara e estatisticamente significativa para a direita na posição ideológica do ChatGPT ao longo do tempo”, tanto em questões econômicas quanto sociais.

Possíveis Causas da Mudança

Embora possa ser tentador associar essa mudança de viés à recente aproximação da OpenAI e da indústria de tecnologia ao presidente Donald Trump, os autores do estudo sugerem que diversos fatores técnicos são prováveis responsáveis pelas alterações observadas.

O deslocamento pode ser resultado de diferenças nos dados usados para treinar as versões anteriores e posteriores dos modelos ou de ajustes feitos pela OpenAI em seus filtros de moderação para tópicos políticos. A empresa não divulga detalhes específicos sobre quais conjuntos de dados são usados em diferentes treinos ou como calibra seus filtros.

Outra possibilidade é que a mudança seja resultado de “comportamentos emergentes” nos modelos, como combinações de ponderação de parâmetros e ciclos de feedback que levam a padrões que os desenvolvedores não previram e não conseguem explicar.

Além disso, como os modelos também se adaptam ao longo do tempo e aprendem com suas interações com os usuários, as visões políticas que expressam podem estar mudando para refletir as preferências dos usuários. Os pesquisadores descobriram que as respostas geradas pelo modelo GPT-3.5, que teve uma frequência maior de interações com usuários, mudaram significativamente mais para a direita ao longo do tempo em comparação com aquelas geradas pelo GPT-4.

Implicações e Recomendações

Os pesquisadores afirmam que suas descobertas mostram que ferramentas populares de IA generativa como o ChatGPT devem ser monitoradas de perto quanto a seus viés políticos. Eles recomendam que os desenvolvedores implementem auditorias regulares e relatórios de transparência sobre seus processos para ajudar a entender como os viés dos modelos mudam ao longo do tempo.

“As mudanças ideológicas observadas levantam preocupantes questões éticas, especialmente quanto ao potencial de viés algorítmico afetar desproporcionalmente certos grupos de usuários”, escreveram os autores do estudo. “Esses viés podem levar à entrega de informações distorcidas, agravando ainda mais as divisões sociais ou criando bolhas de eco que reforçam crenças preexistentes.”

 

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!