- O blog pessoal blog.james-zhan.com foi completamente removido do índice de busca do Google apenas um mês após ser criado
- Logo após validar por engano a URL do feed RSS no Google Search Console (GSC), todos os posts passaram a aparecer com o status “Crawled – currently not indexed”
- Várias causas possíveis foram verificadas, como configuração do domínio, qualidade do conteúdo e estrutura de links internos, mas nenhuma apresentou problema
- Com a ajuda de Herman, fundador do Bear Blog, problemas de DNS, HTML/CSS e da plataforma também foram descartados, e em outros buscadores o site continuou sendo indexado normalmente
- No fim, o autor decidiu mover o blog para um novo subdomínio e deixar a indexação acontecer naturalmente no Google, mas a causa continua desconhecida
Situação inicial
- O blog foi criado em 4 de outubro e publicou seu primeiro artigo longo em formato de coluna de opinião
- Após enviar o sitemap ao Google Search Console (GSC) e solicitar indexação, ele apareceu nos resultados de busca já no dia seguinte
- Depois disso, a cada novo post o autor repetia o pedido de indexação, e tudo era refletido normalmente
Surgimento do problema
- Em 14 de outubro, ao ver no GSC uma mensagem dizendo que uma URL não havia sido indexada, o autor clicou no botão “Validate”
- A URL em questão era o feed RSS (
feed/?type=rss), não uma página real
- Em 20 de outubro, após receber um e-mail do GSC dizendo que algumas correções haviam falhado, todos os posts foram removidos do índice
- A mensagem de status era “Page is not indexed: Crawled – currently not indexed”
- Reenviar o sitemap e pedir indexação individual das URLs não teve efeito
Rastreando a causa
- O dia em que a validação da indexação foi iniciada e o dia em que todos os posts deixaram de ser indexados coincidem
- Não está claro se a tentativa de validar o feed RSS causou o problema
- Todos os posts publicados depois disso também permaneceram com o mesmo status de erro
- Em 3 de novembro, até o último post que ainda restava no índice acabou sendo removido
Verificação das possíveis causas
- Problema de domínio: o domínio
james-zhan.com, usado via GoDaddy, era indexado normalmente em outros subdomínios → não era a causa
- Qualidade do conteúdo: comparando com outros casos no Bear Blog, não havia problema de volume nem de qualidade do conteúdo → não era a causa
- Falta de links internos: a estrutura padrão do Bear Blog é a mesma, e outros blogs eram indexados normalmente → não era a causa
- Outros fatores: segundo a checagem feita por Herman, fundador do Bear Blog
- DNS, HTML/CSS e configurações da plataforma estavam todos normais
- O código CSS personalizado do usuário também não afetava a indexação
Outros buscadores e medidas adotadas
- Em DuckDuckGo, Bing, Brave e outros, o blog continuava sendo indexado normalmente
- Isso sugere um problema do lado do Google, e não uma falha técnica do site
- O blog foi movido para um novo subdomínio (
journal.james-zhan.com) e
- o domínio foi transferido da GoDaddy para a Porkbun
- foi configurado redirecionamento de URL para que os links antigos levassem automaticamente ao novo blog
- No novo blog, o autor não enviou sitemap ao GSC e deixou a indexação acontecer de forma natural
- A causa ainda não foi descoberta, e o autor questiona a falta de transparência do sistema de indexação do Google
1 comentários
Comentários do Hacker News
h1, e o Google interpretou isso como conteúdo de spam.O AI Overview não está sob meu controle, mas depois que adicionei
noindexà página de busca, o tráfego se recuperou em uma semanaDetalhes estão no post do meu blog
/searchprovavelmente foi armazenada em cache e exposta ao crawler.É melhor não fazer cache das páginas de busca e aplicar noindex com X-Robots-Tag
Daqui para frente, acho que vamos ter que acompanhar o tráfego com nossas próprias ferramentas de análise
Agora as pessoas veem só os resumos e os anúncios e vão embora
Será que outro site colocou um link para essa URL de busca e o crawler chegou até ela?
Se o Google colocasse links para as fontes nas frases do resumo, talvez a taxa de cliques se recuperasse um pouco
Quando um site é penalizado, não há como saber o motivo nem apresentar recurso.
O Google está atuando, na prática, como um gatekeeper.
Como funciona quase como um bem público, precisa de um sistema de suporte e de responsabilidade compatível com isso.
Regulação não resolve tudo, mas empresas desse porte, quase utilitárias, deveriam ter ao menos uma obrigação mínima de garantir acesso
Do jeito que está, só aparece na busca quem paga por anúncios
Como resultado, as páginas indexadas caíram de milhares para 100
Veja o screenshot.
Mesmo depois de 6 meses, não se recuperou. Como era um projeto pessoal, tudo bem, mas se fosse um negócio eu estaria furioso
Screenshot atualizado
Depois de operarem por algum tempo, às vezes acabam reconhecidas como “direito adquirido”.
Cheguei até a ver capturas de tela do Google Maps sendo apresentadas como prova em tribunal
mas na prática era uma empresa golpista. Danificaram a fechadura e cobraram 600 dólares.
Quando denunciei, o Google removeu rápido, mas acho que esse tipo de cadastro deveria exigir verificação de identidade real no momento do registro
O problema é que, às vezes, a realidade acaba mudando para se adequar ao mapa
Em processos administrativos, muitas vezes passa a ideia de “se ninguém contestou, então está tudo bem”
Meu site está sendo confundido com conteúdo duplicado e sendo desindexado.
No Bing não há problema, mas o Google comete esse erro
e páginas do Reddit só aparecem em versões traduzidas para idiomas aleatórios.
Parece que a lógica de deduplicação está falhando
Se houver reverse proxy em outro domínio, o Google indexa como duplicado.
É melhor usar tag canonical e links com caminho absoluto
Era um blog que não tinha problemas havia 17 anos
Como há spam demais, parece que os falsos positivos aumentaram
Esse método acaba tendo o efeito contrário, reduzindo a proporção de conteúdo legítimo
É semelhante no ponto em que o Google decide quem sobrevive
O erro de RSS pode ter sido apenas um gatilho para desinteresse
então o Google Maps teria alcançado isso tão rápido assim?
Também não dá para ignorar a influência de Instagram e TikTok,
então parece uma interpretação que dá poder demais ao Google
No fim, isso leva ao problema do ovo e da galinha.
Sites pequenos não conseguem exposição e não podem crescer,
enquanto sites grandes continuam aparecendo no topo sem dificuldade