- O Google introduziu resumos gerados por IA (AI Overviews) nos resultados de busca, que frequentemente puxam conteúdo dos sites e acabam tirando tráfego deles
- Os operadores de sites na prática só têm opções extremas, como bloquear snippets (
max-snippet:0, nosnippet) ou bloqueio parcial (data-nosnippet), caindo assim em um dilema sem saída
- Do lado do usuário, existem apenas formas limitadas e incompletas de evitar isso, como desativar a configuração do Search Labs, parâmetros de URL e extensões
- Órgãos reguladores da UE e do Reino Unido estão atualmente investigando o caráter anticompetitivo do Google AI Overviews e os danos aos publishers, considerando regras como compartilhamento de tráfego e opt-out justo
- Por enquanto, a única resposta prática real para publishers é
max-snippet:0, mas isso tem a desvantagem fatal de reduzir a taxa de cliques, gerando críticas de que se trata de um design de dark pattern do Google
O problema dos resumos de IA do Google (AI Overviews)
- Recentemente, o Google passou a introduzir nos resultados de busca os resumos de IA (SGE: Search Generative Experience) gerados automaticamente por IA
- Esse recurso busca melhorar a experiência do usuário analisando o conteúdo principal dos sites e exibindo diretamente um resumo breve
- No entanto, com isso muitos donos de sites estão enfrentando o problema de os usuários consumirem apenas o conteúdo resumido sem visitar o site original
- Como resultado, isso está levando à queda do tráfego orgânico (organic traffic) dos sites
Impacto do AI Overviews do Google
- Os resumos de IA resumem automaticamente o conteúdo sem o consentimento dos proprietários dos sites e o exibem no topo da busca
- Os usuários tendem cada vez mais a ver apenas o resumo e não clicar no site original
- Com isso, a eficácia das estratégias tradicionais de SEO enfraquece, prejudicando os operadores dos sites
Como os webmasters podem reagir
- 1. max-snippet:0
<meta name="robots" content="max-snippet:0">
- Bloqueia todos os snippets e resumos de IA, deixando nos resultados de busca apenas o título + URL
- Isso pode reduzir bastante a taxa de cliques (CTR)
- No momento, é o método mais eficaz, mas não é uma solução perfeita
- 2. nosnippet
<meta name="robots" content="nosnippet">
- Tem o mesmo efeito de
max-snippet:0, removendo completamente descrições e resumos dos resultados de busca
- Como consequência, a listagem de busca pode ficar mais monótona e menos atraente
- Evita os resumos de IA, mas pode levar à queda da visibilidade na busca
- 3. data-nosnippet
<span data-nosnippet>…</span>
- Permite excluir seletivamente conteúdos específicos
- Porém, o Google ainda pode usar outros trechos de texto no resumo, então é impossível ter controle total
- Pode ser aplicado a elementos HTML (
span, div, section)
- 4. Alternativas do lado do usuário (afetam apenas contas pessoais)
- Opt-out no Search Labs: usuários logados podem desativar “AI Overviews and more”
- Isso vale apenas para a conta do usuário e não afeta como o site aparece para outras pessoas
- Modificadores de URL: adicionar
&udm=14, -AR, -noai à consulta de busca
- Extensões de navegador: é possível usar ferramentas como Bye Bye Google AI
- Elas podem deixar de funcionar quando o Google atualizar algo
- Hack do Reddit: foi sugerido adicionar palavrões para contornar os resumos de IA
- É uma gambiarra temporária e pouco prática
- No iOS, é possível desligar a exibição do Gemini no app do Google, usar a aba Web ou recorrer a navegadores alternativos como Safari e DuckDuckGo
- 5. Esperança regulatória: investigações na UE e no Reino Unido
- UE
- Independent Publishers Alliance, Movement for an Open Web e Foxglove Legal apresentaram uma denúncia antitruste à Comissão Europeia
- Alegam que o AI Overviews causa uso abusivo de conteúdo, desvio de tráfego e ausência de um opt-out justo
- Reino Unido
- A Competition and Markets Authority (CMA) está investigando se os resumos de IA prejudicam a concorrência e afetam publishers
- Estão sendo avaliadas medidas como atribuição obrigatória de fonte, compartilhamento de tráfego e restrições ao favorecimento do próprio Google
A essência do problema
- Dilema dos publishers: se não bloquearem snippets, a IA extrai conteúdo e causa perda de tráfego; se bloquearem, há queda na visibilidade na busca
- Falta de controle para o usuário: as alternativas são incômodas, incompletas e inconsistentes
- Crítica de dark pattern: a estrutura criada pelo Google é vista como um design manipulativo que força publishers a abrir mão de algo importante
- Isso é considerado um exemplo típico de dark pattern, pois impõe escolhas desfavoráveis aos publishers
Conclusão
- Até que os reguladores forcem mudanças, a única opção atual para publishers é
max-snippet:0, mas isso vem acompanhado de séria perda de exposição
- Os donos de sites precisam escolher de forma injusta entre bloquear os resumos de IA e perder visibilidade
- A política do Google representa uma estrutura de escolha forçada sem saída, ou seja, um típico dark pattern
- As decisões futuras dos reguladores da UE e do Reino Unido são a única esperança de mudança, mas não representam uma solução imediata
3 comentários
Sobre isso, vale a pena ler também o texto Fim da era do SEO? O começo da otimização de marketing para agentes de IA.
Quando vejo discussões sobre SEO no Reddit, aparecem mesmo muitos posts de gente preocupada dizendo que a exposição no Google continua a mesma, mas que o tráfego caiu bastante por causa do zero-click.
> Would you consider this a fair feature—or a classic example of dark pattern engineering? Let us know in the comments.
Realmente dizem no texto para deixar um comentário, mas aparentemente o site não tem função de comentários.
Se o texto sobre bloquear IA foi escrito por IA, então é um artigo bem contraditório.
Opinião no Hacker News
Tenho a sensação de que isso é o fenômeno de “portal/corretor” se espalhando por todas as áreas há décadas. Uma terceira camada se instala entre consumidores e produtores, tornando a vida mais conveniente para ambos, mas agora os dois lados passam a depender dela. Ao pedir na Amazon, você já não fala diretamente com o vendedor, e ao pedir comida também não paga mais diretamente ao restaurante. Ao buscar informações na web, você também deixa de lidar com o estilo, a navegação, os anúncios etc. de cada autor individual. Do ponto de vista de quem possui o conteúdo, essa estrutura reduz as visitas à página e prejudica a receita publicitária e, ao contrário da Amazon ou dos apps de entrega, não há compensação pela perda de anúncios causada pelos resumos do Google. Como a maior parte do conteúdo online é sustentada por publicidade, o próprio Google também depende de receita publicitária, mas mesmo assim está forçando essa evolução porque, para o futuro, aparentemente não tem alternativa. O Google parece focado apenas em manter sua posição no futuro
Me incomoda que o material protegido por direitos autorais do site do meu produto de software seja raspado e reprocessado pelo Google ou outras IAs sem permissão. Mas, se eu bloquear isso, a chance de meu conteúdo ser mencionado nos resumos de IA deles praticamente desaparece
Não entendo como esse tipo de resumo de IA não canibaliza a receita futura do Google. O Google ganha dinheiro ao mandar tráfego para sites por meio de anúncios, mas com esse tipo de resumo está tornando os próprios sites desnecessários. Nesse caso, quem vai querer criar sites sem visitantes?
Configurei meu site pessoal no Apache para bloquear indexação, snippets, tradução e indexação de imagens. Mesmo assim, só o Internet Archive ignorou isso e raspou tudo; por mais que eu peça remoção várias vezes, eles nunca atendem. Agora também estou bloqueando raspagem adicional com Anubis. (O site é um diário público iniciado em 2000, então a intenção é justamente que ele não seja encontrável em buscas)
Em certo sentido, publicar significa tornar algo público para que as pessoas tenham certa liberdade de usar aquilo. Essa liberdade pode ajudar ou não o site. Sempre que grandes plataformas como o Google mudam, publishers de conteúdo acabam tendo de se adaptar. Os resumos de IA são parte dessa corrente de mudanças
Neste post de blog, a última frase diz "deixe um comentário", mas a área real de comentários não aparece, então fiquei me perguntando se talvez não tenha sido gerado por IA
Fico curioso se isso também funciona em Perplexity, OpenAI, Claude etc.
Acho que seria melhor para todo mundo se o Google citasse as fontes claramente, como o Perplexity. Daria link e crédito ao original e ainda melhoraria a UX
No futuro, minha especialidade talvez seja ensinar como fazer sites corporativos serem bem resumidos por LLMs. Esse tipo de conteúdo detalhado e fiel vai ser necessário
Colei o título e o domínio deste texto e o resultado saiu diferente. Imagem de referência