O website criado pelo ChatGPT é tão manipulador quanto se poderia esperar

O website criado pelo ChatGPT é tão manipulador quanto se poderia esperar

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Chris Stokel-Walker

3 minutos de leitura

A IA generativa está ganhando cada vez mais espaço em diversas áreas do design, desde criações gráficas até o desenvolvimento de sites. Segundo pesquisas da OpenAI, muitos profissionais acreditam que os designers de interfaces digitais têm “100% de chance” de serem substituídos pelo ChatGPT. Além disso, um relatório da indústria aponta que 83% dos criativos já incorporaram a IA em seus processos.

No entanto, um estudo recente realizado por pesquisadores da Alemanha e do Reino Unido sugere que os humanos ainda são indispensáveis no design de sites – especialmente quando se busca evitar práticas manipuladoras.

Veronika Krauss, da Universidade Técnica de Darmstadt, na Alemanha, junto com colegas de Berlim e Glasgow, analisou como os grandes modelos de linguagem (LLMs, na sigla em inglês), como o ChatGPT, incorporam padrões de design enganosos – os chamados dark patterns – nos sites que geram.

Esses padrões incluem, por exemplo, botões chamativos que incentivam a renovação de assinaturas, enquanto os botões de cancelamento são discretos, ou detalhes importantes que ficam escondidos em menus complicados e confusos.

No estudo, os participantes foram convidados a atuar como designers de uma plataforma de e-commerce e criar sites para uma loja de calçados com o ChatGPT. As tarefas incluíam desenvolver visões gerais de produtos e páginas de checkout usando comandos neutros, como “incentivar os clientes a assinar nossa newsletter”.

Apesar das instruções neutras, todas as páginas criadas pela IA apresentaram pelo menos um padrão enganoso, com uma média de cinco por página. Esses padrões exploram estratégias psicológicas para influenciar o comportamento dos usuários e aumentar as vendas.

Entre os exemplos destacados estavam descontos falsos, indicadores de urgência (como “restam apenas alguns!”) e elementos visuais projetados para direcionar os consumidores a escolhas específicas.

Outro ponto preocupante foi a capacidade do ChatGPT de criar avaliações e depoimentos falsos, que o chatbot sugeriu como uma forma de aumentar a confiança do cliente e impulsionar as compras.

O website criado pelo ChatGPT é tão manipulador quanto se poderia esperar
Fonte da imagem: Krauß et al./ arXiv

Durante o estudo, apenas uma resposta da IA alertou sobre possíveis reações negativas ao uso de uma caixa de assinatura de newsletter pré-selecionada. No restante das interações, o chatbot gerou designs enganosos sem mencionar as possíveis implicações éticas ou legais.

O estudo também testou outros modelos de IA, como o Claude 3.5, da Anthropic, e o Gemini 1.5 Flash, do Google, que apresentaram resultados semelhantes, revelando uma tendência de incorporar práticas de design questionáveis.

Essas descobertas preocupam especialistas como Colin Gray, professor associado da Universidade de Indiana, nos EUA, especialista em padrões enganosos no design de sites e aplicativos. 

padrões enganosos incluem, por exemplo, detalhes importantes escondidos em menus complicados e confusos.

“Este estudo fornece evidências de que ferramentas de IA generativa, como o ChatGPT, podem introduzir padrões manipuladores no design de produtos digitais”, afirma Gray. Ele alerta que o uso crescente da inteligência artificial pode normalizar práticas que pesquisadores e designers têm combatido há anos.

“A inclusão de práticas de design problemáticas em ferramentas de IA levanta questões éticas e legais urgentes, especialmente sobre a responsabilidade dos desenvolvedores e usuários que podem adotar essas estratégias sem perceber”, acrescenta. “Sem uma intervenção cuidadosa, esses sistemas continuarão a espalhar padrões enganosos, comprometendo a autonomia e as decisões dos usuários.”

O website criado pelo ChatGPT é tão manipulador quanto se poderia esperar
Fonte da imagem: Krauß et al./ arXiv

Embora já existam regulações contra os dark patterns em algumas partes da Europa, será necessário ampliá-las para incluir designs criados por inteligência artificial.

Implementar salvaguardas eficazes para IA é um desafio, mas pode ajudar a impedir que esses sistemas reproduzam “maus hábitos” presentes em seus dados de treinamento. A OpenAI, criadora do ChatGPT, não respondeu sobre os resultados do estudo quando procurada.

Gray sugere que ações sejam tomadas antes que a situação se torne ainda mais problemática. “Essas descobertas reforçam a necessidade de regulamentações claras e mecanismos de proteção, à medida que o uso de IA generativa no design de produtos digitais cresce””, conclui.


O website criado pelo ChatGPT é tão manipulador quanto se poderia esperar

SOBRE O AUTOR

Chris Stokel-Walker é um jornalista britânico com trabalhos publicados regularmente em veículos, como Wired, The Economist e Insider saiba mais


Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!