- 73% dos visitantes de sites de e-commerce têm grande probabilidade de não serem pessoas reais, mas sim bots sofisticados
- Com ferramentas de analytics padrão, é difícil distinguir esse tráfego de bots, o que causa distorções na análise de performance de anúncios e no cálculo do ROI de marketing
- Bots de engajamento (Engagement Bot), bots de abandono de carrinho (Cart Abandonment Bot) e bots de tráfego de redes sociais imitam de forma sofisticada a atividade em sites sob vários padrões
- Uma parte do tráfego de bots vem de coleta de dados ou automação legítima, mas uma parcela significativa tem como objetivo fraude publicitária ou manipulação de métricas internas
- Hoje, esse problema não está restrito a sites específicos, mas vem se espalhando como um desafio amplo e sistêmico da indústria
O começo do problema: o mistério da taxa de conversão de 0,1%
- O site de um cliente de e-commerce registrava 50 mil visitantes por mês, mas as vendas reais eram de apenas 47 pedidos
- Em plataformas de análise como o Google Analytics, os dados pareciam muito positivos, mas foi constatado que havia baixa correlação com a receita real
- Mesmo com um gasto mensal de US$ 4.000 em anúncios, crescimento e receita não eram proporcionais de forma alguma
- Ao contrário da suspeita inicial de que o problema era o produto em si, sinais anormais foram detectados ao analisar diretamente os dados de tráfego do site
- Para entender o problema, foi desenvolvido um script de rastreamento para monitorar o comportamento de usuários reais
Investigação inicial: rastreamento para verificar a verdade do tráfego
- Foi criada uma ferramenta de rastreamento para observar padrões reais de comportamento do usuário, e não apenas contar cliques
- Movimento do mouse: análise de curvas naturais vs. padrões mecânicos em linha reta
- Padrões de rolagem: velocidade variável e pausas/rolagem reversa vs. rolagem mecânica perfeitamente constante
- Intervalos entre interações: medição da variabilidade do tempo entre clique, hover e adição ao carrinho
- Em apenas uma semana, foi confirmado que impressionantes 68% do tráfego era não humano (Non-human)
- Não era spam comum, mas sim bots engenhosos projetados para enganar ferramentas de análise
A expansão do problema: não é um caso isolado, mas um fenômeno do setor
- Em fóruns de marketing e grupos no Discord, foi perguntado a outros operadores de e-commerce: "Vocês já viram tráfego e vendas contando histórias diferentes?"
- Após obter permissão para instalar o script de rastreamento em mais de 200 sites de e-commerce de pequeno e médio porte, uma investigação de 6 meses confirmou que, em média, 73% eram tráfego falso (bots)
- Isso não é um problema individual, mas uma questão estrutural em todo o ecossistema de comércio digital
A estrutura da fraude publicitária moderna (Ad Fraud): análise por tipo de tráfego
-
Bots de engajamento (Engagement Bot)
- Bots projetados para fazer relatórios de analytics parecerem bons, simulando o comportamento de visitantes de qualidade
- Executam interações complexas, como rolar a página, passar o cursor sobre produtos e clicar em links internos
- Falha fatal: consistência perfeita
- Permanecem exatamente de 11 a 13 segundos em todas as páginas de descrição de produto
- A velocidade de rolagem é sempre constante em 3,2 páginas por segundo
- O comportamento humano é irregular, mas esses bots são clinicamente precisos
-
Bots de abandono de carrinho (Cart Abandonment Bot)
- Adicionam o mesmo produto ao carrinho, mantêm por 4 minutos e depois abandonam o processo, repetindo isso dezenas de vezes por dia
- Repetem a ação com vários IPs e sessões, o que pode ter como objetivo distorcer deliberadamente métricas importantes de e-commerce, como a taxa de abandono de carrinho, ou manipular algoritmos internos de recomendação
-
Bots de tráfego de redes sociais (Phantom Social Media Visitor)
- Tráfego que aparece nas ferramentas de analytics como vindo de Instagram, TikTok e afins
- Cerca de 64% deles esperam exatamente 1,8 segundo após chegar à página antes de sair
- Saem imediatamente, sem rolar nem clicar, mas ainda assim são contabilizados como "visitantes de redes sociais"
- Elemento central da fraude publicitária: um meio para vendedores de engajamento falso "provarem" que entregaram tráfego
Nem todos os bots são maliciosos: scraping legítimo de dados
- Informação fornecida por uma fonte do setor de dados para e-commerce: 70 milhões de páginas de varejo são raspadas por dia
- Finalidades legítimas de business intelligence
- Grandes varejistas como a Amazon nem sempre notificam fornecedores quando o estoque se esgota
- Marcas pagam por serviços de scraping de dados para monitorar seus próprios produtos
- Verificação de nível de estoque, análise da concorrência pelo buy box e validação da precisão das descrições de produto
- Rastreamento de ranking em resultados de busca por região e por dispositivo móvel
- Análise de banners publicitários por público-alvo
- Segundo um vídeo da Kurzgesagt, quase 50% de todo o tráfego da internet é feito por bots
- Parte disso é análise competitiva e monitoramento de preços legítimos, mas uma parcela considerável é tráfego fraudulento que drena orçamento de anúncios
A economia quebrada da publicidade digital
- Um cliente gastava US$ 12.000 por mês no Google Ads
- Após implementar detecção e filtragem avançadas de tráfego de bots:
- O tráfego reportado caiu 71%
- O CFO inicialmente ficou em choque
- Mas a receita real aumentou 34%
- O esforço real de otimização de taxa de conversão (CRO) já funcionava desde o início, mas estava soterrado por uma avalanche de cliques falsos
- Milhares de dólares estavam sendo desperdiçados exibindo anúncios para robôs programados para nunca comprar
- O ROI de marketing passou instantaneamente de "terrível" para "excelente"
-
A reação das plataformas de anúncios
- Em conversas com grandes plataformas de anúncios, a atitude mudava completamente ao mencionar fraude de cliques ou tráfego de bots
- "Nossa detecção por IA é de nível líder no setor"
- "Levamos fraude publicitária muito a sério"
- Um responsável admitiu de forma não oficial: "Todo mundo sabe"
- "Se filtrássemos isso direito, a receita cairia 40% da noite para o dia e os investidores entrariam em pânico"
- Enorme conflito de interesses: plataformas de anúncios ganham por clique ou impressão, independentemente de vir de um cliente em potencial ou de um servidor de click farm
Você está anunciando para robôs? Guia prático para detectar tráfego falso
-
1. Auditoria de pico de tráfego vs. dados de vendas
- Um pico de tráfego coincide com um pico de vendas?
- Se, ao rodar uma promoção, o tráfego dobrou mas as vendas ficaram estagnadas, há grande chance de tráfego fraudulento
-
2. Análise de métricas de comportamento do usuário
- Procure números "bons demais para ser verdade"
- O "tempo médio na página" das principais landing pages está assustadoramente estável mês após mês?
- O comportamento humano real é irregular e variável
-
3. Segmentação de dados geográficos
- Há volume relevante de tráfego vindo de países para os quais você não entrega?
- Se esses visitantes não convertem, isso é um forte sinal de tráfego de baixa qualidade ou falso
-
4. Investigação das fontes de referência
- Analise com cuidado as principais fontes de tráfego
- Se os sites de referência parecerem irrelevantes ou de baixa qualidade, podem fazer parte de uma rede de troca de tráfego
- Procure "ghost referrals" em que o link para seu site na verdade não existe
-
5. Confie na intuição
- Se os números parecem estranhos, há uma boa chance de que realmente exista um problema
- A intuição de donos de negócio que conhecem sua base de clientes é uma ferramenta valiosa de detecção de bots
Conclusão dura: um castelo de areia digital
- Um fundador de startup captou US$ 2 milhões com base em métricas de "crescimento de usuários"
- Mais tarde, descobriu que 80% dessas métricas eram bots
- Agora, admitir a verdade pode colocar em risco a empresa e a relação com investidores, então tudo segue disfarçado como se estivesse normal
-
A economia oculta dos bots
- Plataformas de anúncios vendem impressões para bots
- Empresas compram tráfego falso para inflar métricas
- Empresas de analytics reportam diligentemente essa atividade de bots
- O setor inteiro participa de uma encenação coletiva, temendo o colapso de um sistema frágil caso a verdade seja admitida
-
Perspectiva final
- Mais da metade da internet é uma ilusão, uma peça digital em que bots se apresentam para outros bots
- Essa proporção cresce a cada dia à medida que IA e automação se tornam mais sofisticadas
- A pergunta já não é mais "seu negócio está sendo afetado?"
- A verdadeira pergunta é: "o que acontece quando esse castelo de areia digital finalmente desabar?"
2 comentários
Agora, além dos bots headless, também estão surgindo agent bots como o comet browser, então a detecção está ficando ainda mais difícil.
Comentários no Hacker News
Tenho uma agência de marketing e comecei a investigar a fundo porque os dados analíticos de um cliente não faziam o menor sentido (50 mil visitantes para 47 vendas). Então analisei mais de 200 sites de e-commerce pequenos e médios, rastreando o comportamento dos usuários com um script simples. Em média, 73% de todo o tráfego era tráfego de bots que as ferramentas de análise padrão registravam como visitantes reais. Os bots agora ficaram incrivelmente bons em imitar comportamento humano. Também organizei os padrões estranhos que observei diretamente e conversas informais que tive com pessoas do setor de adtech. O mais surpreendente é que esse tráfego de bots é um segredo aberto que todo mundo conhece, mas ninguém fala abertamente. Parece que todo esse sistema depende desses bots para funcionar. Queria saber se outros desenvolvedores, fundadores ou profissionais de marketing também já viram dados com esse tipo de discrepância
Quando eu trabalhava na yellow pages da Suíça, havia um dashboard em que clientes pagantes podiam ver o número de visitas à página da empresa deles. Quando nossa equipe de desenvolvimento filtrou o tráfego de bots, os números despencaram em mais de 50%. Em menos de um dia, a área de negócios mandou remover o filtro. No fim, bots também eram tratados como pessoas reais
No fundo, não importa se isso tudo é fraude? Se houve 47 compras reais, dá para julgar se a campanha foi bem-sucedida olhando quanto foi gasto em anúncios naquele período e comparando com os dados de antes e depois. Em anúncios de rua ou propaganda em ônibus, ninguém fica se perguntando quem viu ou se foi uma pessoa de verdade. O que importa, no fim, é o impacto real nos números
Trabalho com consultoria de web analytics e, em 2021, investiguei padrões estranhos de tráfego em uma empresa global de logística. Resumi isso neste texto no meu blog. O problema de tráfego de bots existe há muito tempo, e embora existam muitos serviços emergentes de “detecção de fraude publicitária” para combatê-lo, ainda não vi quase nenhum que seja realmente útil na prática. A pergunta “como resolver isso?” sempre fica no fim, mas ninguém sabe como bloquear bots perfeitamente. A maioria dos consumidores usa as grandes plataformas como Google, Facebook, Instagram, TikTok e LinkedIn, e redes alternativas de anúncios com menos bots praticamente não existem. Todo mundo sabe que uma parte é falsa, mas continua comprando esse tráfego assim mesmo. Para isso mudar, as big techs que faturam bilhões com publicidade precisariam ter um incentivo maior para mudar o sistema do que para mantê-lo como está. No momento, nem parece que elas sentem necessidade de se importar. “Metade do dinheiro que gasto em publicidade é desperdiçada. O problema é que eu não sei qual metade.” - John Wanamaker
Achei interessante a discussão sobre tráfego de “bots bons”. Durante minha investigação, uma pessoa do setor de dados me deu uma pista enorme: na empresa onde ela trabalhava, eles raspavam 70 milhões de páginas de varejo por dia. Isso é uma fonte gigantesca de tráfego legítimo de bots. Por exemplo, como a Amazon não avisa os fornecedores quando o estoque acaba, as marcas usam serviços de scraping para rastrear o estado do estoque dos próprios produtos, a disputa pela vantagem da “Buy Box”, a adequação das descrições, o ranking nas buscas e até quais banners estão sendo mostrados para quais audiências. Até esses “bots bons” podem ser vistos de forma diferente dependendo do ponto de vista. Eu não gosto quando um concorrente raspa meu site, mas acho ótimo quando sou eu coletando dados de mercado. Se alguém programou e roda o bot, é porque ele é útil para aquela pessoa. Criadores de conteúdo veem scraping para IA como algo ruim, mas quem faz IA vê como algo bom. Sites de comparação de preços confiam que os próprios crawlers estão do lado certo, enquanto varejistas odeiam isso. A questão de tráfego de bots “bom” ou “ruim” depende da perspectiva
Concordo com a ideia de que todo esse sistema é baseado em bots. Eu nunca fui exatamente rebelde, mas uma parte de mim que ainda guarda o otimismo da internet inicial quer ver o modelo de publicidade desmoronar. Na verdade, mesmo quando a publicidade funciona “normalmente”, sempre teve um cheiro de exploração e manipulação. Exemplo: mensagens do tipo “se você não comprar este produto, seus amigos vão te rejeitar”
O estilo desse texto é interessante. O padrão de “não é simplesmente X, mas...”, o uso de negrito, listas com bullets etc. é muito aquele estilo de ChatGPT que se vê por toda parte. Claro, não tem problema usar ajuda do ChatGPT, mas é irônico que o conteúdo do texto em si tenha um estilo tão parecido com IA. Se o autor realmente já escrevia assim, talvez isso signifique que o ChatGPT foi ajustado para esse estilo. Fico pensando se a comunicação do setor de adtech já é naturalmente assim
Na verdade, a grande ironia é que esse texto pode ser um caso de um humano usando corretamente uma “linguagem em moldes”, mas sendo confundido por parecer superficialmente com IA. O padrão “não é X, é Y” é uma gramática com um objetivo claro: mudar a perspectiva do leitor porque o autor sabe que ele vai presumir X. No texto, isso aparece em trechos como “não foi simplesmente contar cliques, mas observar comportamento” e “não são apenas bots que entram e saem do site, mas bots que imitam comportamento humano”, ou seja, serve para diferenciar explicitamente a expectativa do leitor da realidade. Também seria interessante pesquisar a distinção entre traços de estilo de IA e escrita humana com significado real. Talvez no futuro apareçam situações em ensino superior ou contratação em que as pessoas tentem distinguir IA de humano desse jeito
Perdi o interesse na parte “tudo começou com um problema simples e fatal”. Depois vem “senti uma sensação estranha e desagradável”, o que também esvazia o texto. Além disso, parece que o autor no fim vende alguma ferramenta de publicidade separadamente
Esse tipo de texto fica ainda mais irônico por causa disso tudo. Ainda bem que as pessoas agora já conseguem perceber rápido esse tipo de escrita rasa e ignorá-la. Startups querem falhar rápido, mas eu quero é identificar conteúdo gerado por IA rapidamente e passar adiante
Notei de cara os traços de IA no texto e desci direto para os comentários. Se parece claramente um texto gerado por IA, isso já é sinal de que nem escreveram nem editaram de verdade, então minha confiança cai automaticamente
A imagem também parece gerada por IA ou, no mínimo, um clipart que não combina
Trabalho com adtech há 15 anos, e acho que empresas grandes como Google/FB também enganam usuários. Elas não permitem double tracking e mandam você confiar apenas nos números delas; além disso, quando você olha os IPs dos cliques, às vezes aparecem IPs de datacenters do FB/Google. Na prática, o tráfego vindo dali é só um truque para fazer o algoritmo pegar usuários que já comprariam no meu site de qualquer forma e transformá-los em suposto resultado da publicidade deles. Existem algumas poucas empresas que tentam medir impacto de verdade, mas são minoria. Os sites que exibem anúncios só irritam os usuários e não ganham nada com isso. Os anunciantes gastam dinheiro e não levam nada. No fim, só os intermediários lucram
Fazer anúncios no Google é como pagar alguém para distribuir panfletos na frente da minha loja. A maioria dos meus visitantes pode até ter recebido o panfleto via Google Ads, mas eu não faço ideia de quantos deles realmente são clientes novos
Facebook Ads e SA360 suportam tracking de terceiros, e você pode usar várias ferramentas de analytics de terceiros. Essa história de IP aparecer como datacenter do FB/Google é simplista demais e eu nunca ouvi isso na vida. As big techs não teriam VPN? E também não entendo essa lógica de que “o algoritmo rouba tráfego orgânico”. Eu também trabalho no setor há mais de 10 anos, mas isso aí não me convence. Dá para passar 15 anos na área e ainda assim não entender bem o setor e a tecnologia
Eu achava que no setor todo mundo já sabia bem que os números de tráfego em geral são em grande parte fictícios e que mais da metade dos dados de cliques em anúncios é fraude. Então, o fato de o OP, que vende a ideia de “análise precisa de gasto com publicidade”, só ter descoberto isso agora não parece muito convincente. Essa parte não é novidade, então é suspeito que o OP esteja tratando como se fosse a primeira vez que percebeu isso. Por outro lado, achei interessante a parte em que ele classifica vários padrões de bots, e não lembro de ter visto um texto falando disso em detalhe
Algumas pessoas do setor já sabiam disso há muito tempo, mas a situação está piorando cada vez mais. Minha teoria, depois de 10 anos trabalhando com equipes de marketing, é que a maioria confia cegamente nos números. Principalmente porque os times só sobrevivem se as métricas crescerem exponencialmente ano após ano; então números inflados acabam sendo uma coisa boa, e se não vende, a culpa pode simplesmente cair no time comercial
Na startup anterior, também gastamos muitos recursos de marketing e desenvolvimento otimizando o funil de conversão, mas a direção do negócio em si estava errada. Talvez tivéssemos conseguido pivotar mais rápido se não estivéssemos sendo arrastados por tanto ruído inútil nos dados
Esse problema é conhecido no setor há mais de 10 anos. Em parte, isso parece um texto de marketing da empresa datacops
Tem gente reagindo com “como assim o OP só percebeu isso agora!?”, mas essa empresa (Datacops) parece ter começado há pouco tempo. Na prática, eles provavelmente publicaram esse texto alinhado ao timing de lançamento do produto. Referência
Para mim, 47 conversões em 50 mil de tráfego sugere que a situação está ainda mais falsa do que antes. Antigamente metade era fraude; agora dá a impressão de que usuários reais viraram uma minoria ínfima
Se eu rodo anúncios no Facebook e vem uma enxurrada de tráfego fraudulento, fico curioso sobre quem está operando esses bots e por quê. O Facebook teria incentivo, mas se fosse pego seria desastroso, então não imagino que se arriscasse assim. Concorrentes? Parece tecnicamente sofisticado demais para ser só para torrar meu orçamento. Será que alguém realmente contrata algum esquema obscuro para fazer isso? Agência de anúncios? Se os dados ficarem ruins, logo pedem reembolso do gasto de mídia, então não parece vantajoso. Então quem faz isso, e com qual objetivo?
Talvez sejam só bots rodando uma simulação para parecer gente de verdade. Em vez de clicarem especificamente no meu anúncio, o objetivo pode ser simplesmente imitar usuários reais de forma indiscriminada
No Facebook Ads, além do modelo de pagamento por clique, também existem modelos pagos por venda real ou por conversão, então ali o alinhamento de interesses parece mais claro
Recomendo procurar pelo caso methbot. Na maioria das vezes, o objetivo é receita publicitária: rodam bots para enganar algoritmos e direcionar tráfego para conteúdo e páginas que eles próprios publicaram, depois se passam por usuários reais para atrair mais verba publicitária. Estruturalmente, isso torna bem difícil para FB/Google filtrarem tudo completamente
Muita gente pensa “será que o Facebook faria isso?”, mas historicamente sempre foi tolice adotar uma postura de “confiar na empresa” quando o assunto é cálculo desses números. Vale para qualquer empresa. Se a receita esperada for maior do que o custo mais o risco de ser descoberta, ela faz
Pode nem ser o Facebook diretamente, e enquanto os anunciantes continuarem comprando anúncios, eles não têm muito incentivo para se importar com o problema
Gostaria que o script fosse publicado. Queria verificar se o método foi mesmo correto ou se, por acaso, ele não está confundindo usuários normais com bloqueador de anúncios ou JS desativado com bots. Mesmo assim, 73% nem me surpreende. Eu apostaria até em mais. O trecho mais marcante é que, quando você menciona bots ou fraude de clique para equipes comerciais de plataformas de anúncios, a conversa de repente vira aquele corporativês duro. Lembro de um vendedor que eu conhecia bem ter admitido em off: “todo mundo sabe. Todo mundo sabe, mas se a gente filtrasse tudo direito, 40% da receita sumiria da noite para o dia e os investidores entrariam em pânico”
Quando os incentivos da equipe de marketing são construídos em cima de métricas de vaidade, o problema de conversão passa a ser visto só como algo do fim do funil. Até startups de venture claramente têm incentivo para deixar cadastros de bots passarem, só para mostrar números inflados para investidores
Quando você ouve um relato de que “se filtrasse direito, 40% da receita evaporaria”, dá até vontade de pensar se isso não caberia numa ação coletiva
Quando trabalhei na equipe de operações de anúncios da Lycos, no começo dos anos 2000, já vi auditorias internas mostrando que a taxa de bots ficava entre 25% e 75%. Na época já tentavam bloquear isso, mas não adiantava, e continua a mesma coisa hoje. Publicidade online é em grande parte desperdício de dinheiro. Parece gerar atividade econômica, mas na prática desperdiça tempo e recursos
Como o texto não menciona defesas contra bots de forma concreta, vou acrescentar algumas coisas: quando você reforça a prevenção contra bots (CAPTCHA etc.), a evasão de usuários reais aumenta muito. Isso prejudica seriamente a conversão. À medida que os bots ficam mais parecidos com humanos, acho que esse problema precisa ser resolvido na etapa de análise e atribuição, e não estragando a usabilidade
Abaixo está um caso real que vivi
Mas o que me deixa curioso é: como exatamente essa filtragem de bots se traduz em queda de gasto com anúncios? Por exemplo, dá para informar diretamente ao Google Ads “não quero pagar por esses cliques”? Ou foi mais uma questão de ajustar o targeting para evitar os bots?
Consigo imaginar que, ao bloquear tráfego de bots, o retargeting passe a ser usado de forma mais precisa em pessoas reais, aumentando as conversões
Provavelmente, quando o filtro decide “isso aqui é bot”, ele simplesmente deixa de exibir o anúncio
Se bots entram na composição de audiências de lookalike e remarketing, isso pode mandar sinais errados para plataformas como o Facebook. E não, no Google Ads você não pode simplesmente dizer que não quer pagar por um clique específico
Já vi antes um texto com um argumento parecido, dizendo que “o mercado de publicidade na web é praticamente todo falso/fraudulento/de bots, e todas as empresas e todo o setor se mantêm ignorando isso”. Muitos empregos, muitas empresas e setores inteiros dependem de não admitir esse fato