Google detalha como lida com conteúdo de IA em seus resultados de busca

Google detalha como lida com conteúdo de IA em seus resultados de busca

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

✨ Principais destaques:

  • Conteúdo criado por IA pode aparecer no Google, desde que seja preciso, original e revisado por humanos
  • Modelos Gemini usados no AI Overviews e AI Mode fazem “grounding” usando dados da busca do Google
  • Treinamento de modelos deve evitar aprender apenas com conteúdo de IA para não gerar “loop” de informação

Em uma entrevista recente, Gary Illyes, do Google, deixou claro que a empresa não se preocupa com a forma como o conteúdo é criado, seja por humanos ou por inteligência artificial, desde que ele mantenha alta qualidade, seja preciso e não seja uma cópia de algo já existente.

Segundo Illyes, o termo correto para a política da empresa não é “criado por humanos”, mas sim “curado por humanos”.

O que significa que, para o Google, o ponto central é garantir que haja supervisão editorial antes da publicação, validando dados e corrigindo possíveis erros.

Illyes também destacou que apenas declarar que houve revisão não é suficiente; o processo deve, de fato, acontecer para garantir confiança e precisão.

Modelos Gemini e o papel do “grounding”

Illyes revelou que tanto o AI Overviews (AIO) quanto o AI Mode utilizam modelos Gemini personalizados.

Esses sistemas realizam o “grounding”, um processo no qual a IA conecta suas respostas a dados concretos e verificáveis do índice de busca do Google.

O objetivo do grounding é reduzir erros e alucinações, tornando as respostas mais confiáveis. Nesse processo, o Google Search desempenha papel fundamental, retornando resultados para consultas específicas feitas pelo modelo.

Vale lembrar que, se um site bloquear o rastreador Google Extended, o Gemini não fará grounding usando seus dados.

Impacto do conteúdo de IA no treinamento de modelos

Quando questionado sobre se a crescente quantidade de conteúdo gerado por IA poderia “poluir” os modelos de linguagem, Illyes disse que isso não é uma ameaça direta para o índice de busca, mas pode ser problemático para o treinamento de LLMs.

O risco, segundo ele, está em criar um ciclo fechado, no qual modelos aprendem apenas com textos gerados por outras IAs, comprometendo a diversidade e a precisão das informações.

Para evitar esse problema, o Google seleciona cuidadosamente os documentos que entram no treinamento.

E, para que o conteúdo de IA seja útil nesse processo, é essencial que seja original, preciso e, preferencialmente, revisado por um editor humano.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!