- Denunciantes revelaram que Meta e TikTok, mesmo sabendo por pesquisas internas que quanto mais raiva o algoritmo provoca maior é o engajamento, expuseram os usuários a mais conteúdo nocivo em seus feeds
- Um engenheiro da Meta afirmou ter recebido instruções para aumentar a exposição a ‘conteúdo limítrofe’ por causa da queda das ações, enquanto um funcionário do TikTok mostrou um painel interno em que casos envolvendo políticos foram tratados com prioridade sobre danos a crianças
- O Reels da Meta foi lançado para competir com o TikTok sem salvaguardas suficientes, e pesquisas internas confirmaram que a proporção de comentários com assédio, discurso de ódio e violência era maior do que no feed principal do Instagram
- Um funcionário da equipe interna de segurança do TikTok testemunhou que a segurança infantil foi deixada em segundo plano para manter relações políticas e alertou: “os pais devem apagar o aplicativo”
- As duas empresas negaram a amplificação intencional de conteúdo nocivo, mas documentos internos e depoimentos revelam um problema estrutural em que algoritmos centrados em engajamento priorizaram receita acima da segurança dos usuários
Visão geral das revelações dos denunciantes
- Mais de 12 denunciantes e pessoas ligadas às empresas afirmaram que elas disputavam o engajamento dos usuários ignorando problemas de segurança como conteúdo ligado a violência, exploração sexual e terrorismo
- Um engenheiro da Meta afirmou ter recebido instruções da direção para expor mais ‘conteúdo limítrofe’ como misoginia e teorias da conspiração
- Um funcionário do TikTok apresentou à BBC um caso em que denúncias relacionadas a políticos receberam prioridade sobre danos a crianças
- Dentro do TikTok, foi mencionado que manter relações com políticos era importante para evitar riscos de regulação ou proibição
Pesquisa interna da Meta e os problemas do Reels
- O pesquisador da Meta Matt Motyl afirmou que, no lançamento do Reels (2020), as salvaguardas eram insuficientes
- Segundo pesquisa interna, os comentários do Reels tinham taxas 75%, 19% e 7% maiores de assédio, discurso de ódio e incentivo à violência, respectivamente, do que o feed principal do Instagram
- A empresa deslocou 700 pessoas para o crescimento do Reels, enquanto pedidos de reforço de equipe para proteção infantil e integridade eleitoral foram recusados
- Documentos internos apontam que o algoritmo prioriza a maximização da receita acima do bem-estar do usuário
- Incluindo a expressão de que “o Facebook pode consumir os usuários como ‘fast-food’, mas isso dificilmente é sustentável por muito tempo”
Depoimento da equipe interna de segurança do TikTok
- A BBC manteve contato por vários meses em 2025 com ‘Nick’, funcionário da equipe de confiança e segurança do TikTok
- Ele afirmou que a adoção de IA e os cortes de pessoal enfraqueceram a resposta a conteúdo nocivo
- Disse ter confirmado o aumento de materiais ligados a terrorismo, violência sexual, abuso e tráfico humano
- Foi apresentado um caso em que, em um painel interno, uma postagem satirizando um político foi analisada antes de um caso de chantagem sexual contra um adolescente
- Também foi confirmado que um caso envolvendo uma vítima iraquiana de 16 anos foi classificado com baixa urgência
- Nick disse que “a empresa valoriza mais as relações políticas do que a segurança infantil” e aconselhou os pais a ‘apagar o TikTok’
- O TikTok respondeu que “conteúdo político não recebe prioridade sobre a segurança infantil” e rebateu dizendo que as alegações distorcem os fatos
- A empresa explicou que mais de 50 configurações de segurança padrão são aplicadas a contas de adolescentes
Competição algorítmica e a resposta da Meta
- Em 2020, durante a pandemia de covid-19, diante do crescimento acelerado do TikTok, a Meta lançou o Reels às pressas
- Motyl afirmou que “a velocidade veio antes da proteção do usuário”
- Segundo ele, a equipe do Reels resistia a introduzir recursos de segurança porque conteúdo nocivo gerava maior engajamento
- Brandon Silverman (fundador do Crowdtangle) testemunhou que Mark Zuckerberg era extremamente sensível à concorrência na época
- A expansão do Reels recebeu 700 pessoas, enquanto a equipe de segurança tinha dificuldade para conseguir pessoal
- O ex-engenheiro da Meta ‘Tim’ afirmou que as restrições a ‘conteúdo limítrofe’ foram afrouxadas por causa da concorrência com o TikTok
- Ele disse que “com a queda das ações e a pressão por receita, foi tomada a decisão de afrouxar medidas para garantir ganhos de curto prazo”
Como o algoritmo funciona e seu impacto social
- Documentos internos afirmam que conteúdos que provocam raiva e estímulos morais geram alto engajamento, e que o algoritmo os favorece
- A lógica seria: “quanto mais raiva o usuário sente, mais conteúdo ele consome”
- Especialistas britânicos da polícia em terrorismo relataram ter observado recentemente um fenômeno de ‘normalização’ de postagens antissemitas, racistas e de violência de extrema direita
- Um usuário adolescente testemunhou que foi ‘radicalizado’ pelo algoritmo desde os 14 anos, dizendo que sua raiva e repulsa foram intensificadas
Posição oficial das empresas
- Meta: “A alegação de que amplificamos conteúdo nocivo por ganho financeiro não é verdadeira”
- A empresa destacou grandes investimentos em segurança e proteção nos últimos 10 anos e a introdução de recursos de proteção a adolescentes
- TikTok: disse que “as alegações são fabricadas” e explicou que continua investindo em tecnologia para evitar a exposição a conteúdo nocivo
- Acrescentou que “apoia milhões de pessoas a descobrir novos interesses e formar comunidades”
1 comentários
Opiniões do Hacker News
Nos últimos 5 anos, esse problema já parece ter virado senso comum
Mas a verdadeira pergunta é: “então o que devemos fazer?”
Tento não desperdiçar meu tempo com raiva online, mas isso é uma patologia social grande demais para um indivíduo suportar
Se Meta ou TikTok têm saldo líquido negativo para a sociedade, não têm nenhum direito natural de existir
A raiz do problema é que “gerar engajamento” dá dinheiro demais. Enquanto o incentivo financeiro não desaparecer, o problema também não vai desaparecer
Sinto que obtenho mais informação do que quando só ouço a NPR, mas evito conteúdo produzido (edição, música, narração etc.)
Quero realmente absorver apenas a reação emocional que vem de algo que de fato aconteceu ou de algo que alguém disse
“Conteúdo como notícia” precisa ter autenticidade
Se olharmos para por que a Gen Z bebe menos álcool do que os millennials, talvez exista uma solução aí
Acho que a expressão “conteúdo nocivo” no fim significa algo de que o governo ou um determinado país não gosta
No fim das contas, isso soa como mais uma demanda por censura
Se algum grupo se opõe a esse tipo de violência, isso não seria algo bom?
Mesmo denunciando, a única resposta que recebo é “nenhuma violação das regras”
É frustrante que essas plataformas ainda operem desse jeito
O dano social já é conhecido há mais de 10 anos, e mesmo assim nada acontece
Facebook e TikTok são, na prática, drogas digitais. E foram projetadas por pessoas sem empatia social
Esse resultado não é surpreendente. A maioria das pessoas provavelmente pensa o mesmo
Ainda assim, é bom ver as evidências apresentadas de forma clara
Será que esse fenômeno é inevitável?
Como ele gera cliques, visualizações e engajamento do usuário, se uma plataforma faz isso, as outras acabam sendo forçadas a seguir o mesmo caminho
Por exemplo, se um funcionário do McDonald’s insultar clientes, o ‘engajamento’ pode até aumentar, mas a participação de mercado cairá
Era óbvio que eles agiriam assim
Enquanto for legal e der lucro, continuarão fazendo isso
Essa conversa se repete pelo menos desde 2012
Está bem resumida no livro de Max Fisher The Chaos Machine
Tanto Facebook quanto YouTube, quando recebem críticas, dizem que “tomaram medidas”, mas na prática repetem evasão, atraso, minimização e negação
Fico me perguntando se existe alguma instituição que monitore algoritmos nocivos e até entre com ações judiciais
A Reset.tech faz um bom trabalho nessa área, mas queria saber se existem outras, e também quem as financia
Se faturam 20 bilhões de dólares e a multa é de 200 milhões, eles não vão se importar nem um pouco com a saúde mental dos usuários
Enquanto o público continuar reagindo a conteúdo sensacionalista, não há motivo para as plataformas deixarem de explorá-lo
No fim, a maioria das publicações não passa de isca de clique