3 pontos por GN⁺ 2025-09-01 | 3 comentários | Compartilhar no WhatsApp
  • O Google introduziu resumos gerados por IA (AI Overviews) nos resultados de busca, que frequentemente puxam conteúdo dos sites e acabam tirando tráfego deles
  • Os operadores de sites na prática só têm opções extremas, como bloquear snippets (max-snippet:0, nosnippet) ou bloqueio parcial (data-nosnippet), caindo assim em um dilema sem saída
  • Do lado do usuário, existem apenas formas limitadas e incompletas de evitar isso, como desativar a configuração do Search Labs, parâmetros de URL e extensões
  • Órgãos reguladores da UE e do Reino Unido estão atualmente investigando o caráter anticompetitivo do Google AI Overviews e os danos aos publishers, considerando regras como compartilhamento de tráfego e opt-out justo
  • Por enquanto, a única resposta prática real para publishers é max-snippet:0, mas isso tem a desvantagem fatal de reduzir a taxa de cliques, gerando críticas de que se trata de um design de dark pattern do Google

O problema dos resumos de IA do Google (AI Overviews)

  • Recentemente, o Google passou a introduzir nos resultados de busca os resumos de IA (SGE: Search Generative Experience) gerados automaticamente por IA
  • Esse recurso busca melhorar a experiência do usuário analisando o conteúdo principal dos sites e exibindo diretamente um resumo breve
  • No entanto, com isso muitos donos de sites estão enfrentando o problema de os usuários consumirem apenas o conteúdo resumido sem visitar o site original
  • Como resultado, isso está levando à queda do tráfego orgânico (organic traffic) dos sites

Impacto do AI Overviews do Google

  • Os resumos de IA resumem automaticamente o conteúdo sem o consentimento dos proprietários dos sites e o exibem no topo da busca
  • Os usuários tendem cada vez mais a ver apenas o resumo e não clicar no site original
  • Com isso, a eficácia das estratégias tradicionais de SEO enfraquece, prejudicando os operadores dos sites

Como os webmasters podem reagir

  • 1. max-snippet:0
    • <meta name="robots" content="max-snippet:0">
    • Bloqueia todos os snippets e resumos de IA, deixando nos resultados de busca apenas o título + URL
      • Isso pode reduzir bastante a taxa de cliques (CTR)
    • No momento, é o método mais eficaz, mas não é uma solução perfeita
  • 2. nosnippet
    • <meta name="robots" content="nosnippet">
    • Tem o mesmo efeito de max-snippet:0, removendo completamente descrições e resumos dos resultados de busca
      • Como consequência, a listagem de busca pode ficar mais monótona e menos atraente
    • Evita os resumos de IA, mas pode levar à queda da visibilidade na busca
  • 3. data-nosnippet
    • <span data-nosnippet>…</span>
    • Permite excluir seletivamente conteúdos específicos
      • Porém, o Google ainda pode usar outros trechos de texto no resumo, então é impossível ter controle total
    • Pode ser aplicado a elementos HTML (span, div, section)
  • 4. Alternativas do lado do usuário (afetam apenas contas pessoais)
    • Opt-out no Search Labs: usuários logados podem desativar “AI Overviews and more”
      • Isso vale apenas para a conta do usuário e não afeta como o site aparece para outras pessoas
    • Modificadores de URL: adicionar &udm=14, -AR, -noai à consulta de busca
    • Extensões de navegador: é possível usar ferramentas como Bye Bye Google AI
      • Elas podem deixar de funcionar quando o Google atualizar algo
    • Hack do Reddit: foi sugerido adicionar palavrões para contornar os resumos de IA
      • É uma gambiarra temporária e pouco prática
    • No iOS, é possível desligar a exibição do Gemini no app do Google, usar a aba Web ou recorrer a navegadores alternativos como Safari e DuckDuckGo
  • 5. Esperança regulatória: investigações na UE e no Reino Unido
    • UE
      • Independent Publishers Alliance, Movement for an Open Web e Foxglove Legal apresentaram uma denúncia antitruste à Comissão Europeia
      • Alegam que o AI Overviews causa uso abusivo de conteúdo, desvio de tráfego e ausência de um opt-out justo
    • Reino Unido
      • A Competition and Markets Authority (CMA) está investigando se os resumos de IA prejudicam a concorrência e afetam publishers
      • Estão sendo avaliadas medidas como atribuição obrigatória de fonte, compartilhamento de tráfego e restrições ao favorecimento do próprio Google

A essência do problema

  • Dilema dos publishers: se não bloquearem snippets, a IA extrai conteúdo e causa perda de tráfego; se bloquearem, há queda na visibilidade na busca
  • Falta de controle para o usuário: as alternativas são incômodas, incompletas e inconsistentes
  • Crítica de dark pattern: a estrutura criada pelo Google é vista como um design manipulativo que força publishers a abrir mão de algo importante
    • Isso é considerado um exemplo típico de dark pattern, pois impõe escolhas desfavoráveis aos publishers

Conclusão

  • Até que os reguladores forcem mudanças, a única opção atual para publishers é max-snippet:0, mas isso vem acompanhado de séria perda de exposição
    • Os donos de sites precisam escolher de forma injusta entre bloquear os resumos de IA e perder visibilidade
  • A política do Google representa uma estrutura de escolha forçada sem saída, ou seja, um típico dark pattern
  • As decisões futuras dos reguladores da UE e do Reino Unido são a única esperança de mudança, mas não representam uma solução imediata

3 comentários

 
laeyoung 2025-09-01

Sobre isso, vale a pena ler também o texto Fim da era do SEO? O começo da otimização de marketing para agentes de IA.

Quando vejo discussões sobre SEO no Reddit, aparecem mesmo muitos posts de gente preocupada dizendo que a exposição no Google continua a mesma, mas que o tráfego caiu bastante por causa do zero-click.

 
crawler 2025-09-01

> Would you consider this a fair feature—or a classic example of dark pattern engineering? Let us know in the comments.

Realmente dizem no texto para deixar um comentário, mas aparentemente o site não tem função de comentários.
Se o texto sobre bloquear IA foi escrito por IA, então é um artigo bem contraditório.

 
GN⁺ 2025-09-01
Opinião no Hacker News
  • Tenho a sensação de que isso é o fenômeno de “portal/corretor” se espalhando por todas as áreas há décadas. Uma terceira camada se instala entre consumidores e produtores, tornando a vida mais conveniente para ambos, mas agora os dois lados passam a depender dela. Ao pedir na Amazon, você já não fala diretamente com o vendedor, e ao pedir comida também não paga mais diretamente ao restaurante. Ao buscar informações na web, você também deixa de lidar com o estilo, a navegação, os anúncios etc. de cada autor individual. Do ponto de vista de quem possui o conteúdo, essa estrutura reduz as visitas à página e prejudica a receita publicitária e, ao contrário da Amazon ou dos apps de entrega, não há compensação pela perda de anúncios causada pelos resumos do Google. Como a maior parte do conteúdo online é sustentada por publicidade, o próprio Google também depende de receita publicitária, mas mesmo assim está forçando essa evolução porque, para o futuro, aparentemente não tem alternativa. O Google parece focado apenas em manter sua posição no futuro

    • Na verdade, chamou minha atenção a ideia de que essa mudança beneficia ambos os lados. É verdade que, no processo de transição, um dos lados sai prejudicado, mas no fim acho que o ganho para consumidores e plataformas é maior
  • Me incomoda que o material protegido por direitos autorais do site do meu produto de software seja raspado e reprocessado pelo Google ou outras IAs sem permissão. Mas, se eu bloquear isso, a chance de meu conteúdo ser mencionado nos resumos de IA deles praticamente desaparece

    • Se você bloquear desse jeito, nos resultados sobre seu produto ou sua empresa o resumo de IA pode acabar consultando uma fonte que nem é a segunda mais relevante, o que na prática pode ser pior. Por exemplo, em uma busca como "como sacar do PayPal", se o segundo site for um domínio negativo tipo "PayPal sucks", excluir o site oficial do resumo pode dar mais dor de cabeça. No fim, para os publishers é melhor simplesmente permitir. Se a preocupação é queda de tráfego, o link de "source" mostrado no resumo aparece antes de qualquer outro resultado. Se a preocupação é desinformação, isso pode ser resolvido com relatórios de precisão ou ajustes no conteúdo. Além disso, o Google deveria permitir opt-out separado para resumos de IA e snippets e, se você se preocupa com os resumos de IA, os snippets também deveriam preocupar do mesmo jeito
    • Tenho receio de que no futuro o Google possa entrar em contato dizendo para eu pagar se quiser que ele descreva minha empresa de forma mais positiva do que a concorrência, ou para pagar se eu quiser remover informações falsas geradas injustamente
    • Se for um site que vende algo diretamente, acho que aparecer no resumo de IA é até desejável
  • Não entendo como esse tipo de resumo de IA não canibaliza a receita futura do Google. O Google ganha dinheiro ao mandar tráfego para sites por meio de anúncios, mas com esse tipo de resumo está tornando os próprios sites desnecessários. Nesse caso, quem vai querer criar sites sem visitantes?

    • O Google já tem a tecnologia para inserir anúncios de produtos e serviços dentro dos resumos de IA. Como exemplo real, um estudo descreveu casos em que, ao buscar por "férias", hotéis e companhias aéreas eram mencionados separadamente. O link para esse artigo está aqui
    • 99% da receita está concentrada em consultas com intenção clara de compra, como "buy macbook" ou "book trip to dc". Em buscas informativas, quase não há receita publicitária
    • Dá para confirmar isso pelo fato de que as consultas que realmente geram receita são pouquíssimas, e na maioria dos termos de busca nem sequer existe lance de anúncios
    • Na verdade, o Google teme mais ser substituído por tecnologias como o ChatGPT. Por isso, entregar imediatamente a informação que o usuário quer é a melhor forma de manter sua posição. Na minha opinião, LLMs são imperfeitos, mas são muito superiores aos mecanismos de busca para perguntas ambíguas, integração de informação, tradução etc. Quando a pessoa quer obter informação em vez de encontrar uma página específica, o LLM está mais próximo do ideal. Eu não acharia estranho se mecanismos de busca desaparecessem nos próximos 10 anos
    • Talvez o Google também tenha introduzido essa mudança meio à força, por causa da realidade de estar sendo gradualmente pressionado por serviços de LLM. Ver o Google colocando o resumo de IA acima dos anúncios mostra o quanto a situação é urgente para ele
  • Configurei meu site pessoal no Apache para bloquear indexação, snippets, tradução e indexação de imagens. Mesmo assim, só o Internet Archive ignorou isso e raspou tudo; por mais que eu peça remoção várias vezes, eles nunca atendem. Agora também estou bloqueando raspagem adicional com Anubis. (O site é um diário público iniciado em 2000, então a intenção é justamente que ele não seja encontrável em buscas)

    • Não entendo publicar algo na internet e esperar que não seja arquivado. Se o domínio sumir e um dia você quiser rever isso, na verdade é uma sorte que tenha ficado no Internet Archive. Uma vez colocado na internet, é essencialmente público
    • O que mais me incomoda é o fato de o Internet Archive simplesmente não responder às minhas solicitações. Para conteúdo ilegal (difamação, segredos de Estado, certos materiais obscenos etc.), pode haver exceções para remoção, mas o princípio geral é que, se foi publicado pela própria pessoa, não se deveria permitir apagar isso do registro histórico. Se eu realmente quisesse esconder informações pessoais, teria colocado atrás de login. O site ainda existe, e alguém continua rastreando tudo
    • Os snapshots têm um campo chamado "why?". Na prática, além do Internet Archive, Common Crawl, Archive Team e outros também podem ter enviado meu site para lá. É preciso verificar o motivo e identificar corretamente o alvo
    • Tente solicitar exclusão ou bloqueio no Internet Archive via robots.txt. Essa política mudou algumas vezes, mas nos últimos anos eles voltaram a respeitar robots.txt. Veja o FAQ
  • Em certo sentido, publicar significa tornar algo público para que as pessoas tenham certa liberdade de usar aquilo. Essa liberdade pode ajudar ou não o site. Sempre que grandes plataformas como o Google mudam, publishers de conteúdo acabam tendo de se adaptar. Os resumos de IA são parte dessa corrente de mudanças

    • Acho que isso é uma visão meio arrogante. Eu já publiquei software sob condições de licença. Só porque algo está público não significa que qualquer pessoa possa usar para qualquer finalidade
    • Minha premissa é que eu publico mantendo os direitos autorais sobre meu conteúdo. Não significa que eu queira dar liberdade para alguém republicá-lo comercialmente. Talvez estejamos indo para um futuro em que será preciso esconder conteúdo atrás de login, o que seria um futuro amargo para a web
    • Desde o Estatuto de Anne de 1710 (a primeira lei de direitos autorais), regras se aplicam também à informação distribuída publicamente
    • Eu publico meus textos esperando que as pessoas os leiam diretamente, não para o Google fazer um resumo de IA meia-boca. As decisões do Google acabam sempre seguindo a direção que beneficia o próprio Google
    • Publicar não deveria significar abrir mão de todos os direitos. Muita gente escreve para reunir leitores com perfil parecido com o seu. Quando um intermediário entra no meio, a conexão entre leitor e autor pode sair prejudicada. Se eu quiser resumir, posso fazer isso do jeito que eu quiser, mas a maioria dos autores não quer resumo por LLM. Além disso, LLMs têm muitos vieses e podem resumir de forma estranha, até removendo por filtros próprios os parágrafos mais importantes. Poucas coisas são tão fatais para uma ideia quanto ela ser transmitida em uma versão enfraquecida e distorcida da minha opinião
  • Neste post de blog, a última frase diz "deixe um comentário", mas a área real de comentários não aparece, então fiquei me perguntando se talvez não tenha sido gerado por IA

  • Fico curioso se isso também funciona em Perplexity, OpenAI, Claude etc.

  • Acho que seria melhor para todo mundo se o Google citasse as fontes claramente, como o Perplexity. Daria link e crédito ao original e ainda melhoraria a UX

    • O Google até cita, mas de forma pouco visível, usando um símbolo Unicode de um único caractere em formato de "link". E, ao clicar, você não vai direto para a página-fonte; abre-se um painel lateral, muitas vezes com várias fontes dentro. Tecnicamente, essa citação é o primeiro link na página de resultados, mas na prática é preciso clicar duas vezes para chegar à minha página. Seria bom se as citações fossem mais visíveis, usando o título da página como texto âncora e oferecendo um link direto. Se houver várias citações, seria bom deixar o painel lateral já aberto desde o início ou expor todas elas diretamente na página principal
  • No futuro, minha especialidade talvez seja ensinar como fazer sites corporativos serem bem resumidos por LLMs. Esse tipo de conteúdo detalhado e fiel vai ser necessário

  • Colei o título e o domínio deste texto e o resultado saiu diferente. Imagem de referência