1 pontos por GN⁺ 2026-03-19 | 1 comentários | Compartilhar no WhatsApp
  • Denunciantes revelaram que Meta e TikTok, mesmo sabendo por pesquisas internas que quanto mais raiva o algoritmo provoca maior é o engajamento, expuseram os usuários a mais conteúdo nocivo em seus feeds
  • Um engenheiro da Meta afirmou ter recebido instruções para aumentar a exposição a ‘conteúdo limítrofe’ por causa da queda das ações, enquanto um funcionário do TikTok mostrou um painel interno em que casos envolvendo políticos foram tratados com prioridade sobre danos a crianças
  • O Reels da Meta foi lançado para competir com o TikTok sem salvaguardas suficientes, e pesquisas internas confirmaram que a proporção de comentários com assédio, discurso de ódio e violência era maior do que no feed principal do Instagram
  • Um funcionário da equipe interna de segurança do TikTok testemunhou que a segurança infantil foi deixada em segundo plano para manter relações políticas e alertou: “os pais devem apagar o aplicativo”
  • As duas empresas negaram a amplificação intencional de conteúdo nocivo, mas documentos internos e depoimentos revelam um problema estrutural em que algoritmos centrados em engajamento priorizaram receita acima da segurança dos usuários

Visão geral das revelações dos denunciantes

  • Mais de 12 denunciantes e pessoas ligadas às empresas afirmaram que elas disputavam o engajamento dos usuários ignorando problemas de segurança como conteúdo ligado a violência, exploração sexual e terrorismo
    • Um engenheiro da Meta afirmou ter recebido instruções da direção para expor mais ‘conteúdo limítrofe’ como misoginia e teorias da conspiração
    • Um funcionário do TikTok apresentou à BBC um caso em que denúncias relacionadas a políticos receberam prioridade sobre danos a crianças
  • Dentro do TikTok, foi mencionado que manter relações com políticos era importante para evitar riscos de regulação ou proibição

Pesquisa interna da Meta e os problemas do Reels

  • O pesquisador da Meta Matt Motyl afirmou que, no lançamento do Reels (2020), as salvaguardas eram insuficientes
    • Segundo pesquisa interna, os comentários do Reels tinham taxas 75%, 19% e 7% maiores de assédio, discurso de ódio e incentivo à violência, respectivamente, do que o feed principal do Instagram
  • A empresa deslocou 700 pessoas para o crescimento do Reels, enquanto pedidos de reforço de equipe para proteção infantil e integridade eleitoral foram recusados
  • Documentos internos apontam que o algoritmo prioriza a maximização da receita acima do bem-estar do usuário
    • Incluindo a expressão de que “o Facebook pode consumir os usuários como ‘fast-food’, mas isso dificilmente é sustentável por muito tempo”

Depoimento da equipe interna de segurança do TikTok

  • A BBC manteve contato por vários meses em 2025 com ‘Nick’, funcionário da equipe de confiança e segurança do TikTok
    • Ele afirmou que a adoção de IA e os cortes de pessoal enfraqueceram a resposta a conteúdo nocivo
    • Disse ter confirmado o aumento de materiais ligados a terrorismo, violência sexual, abuso e tráfico humano
  • Foi apresentado um caso em que, em um painel interno, uma postagem satirizando um político foi analisada antes de um caso de chantagem sexual contra um adolescente
    • Também foi confirmado que um caso envolvendo uma vítima iraquiana de 16 anos foi classificado com baixa urgência
  • Nick disse que “a empresa valoriza mais as relações políticas do que a segurança infantil” e aconselhou os pais a ‘apagar o TikTok’
  • O TikTok respondeu que “conteúdo político não recebe prioridade sobre a segurança infantil” e rebateu dizendo que as alegações distorcem os fatos
    • A empresa explicou que mais de 50 configurações de segurança padrão são aplicadas a contas de adolescentes

Competição algorítmica e a resposta da Meta

  • Em 2020, durante a pandemia de covid-19, diante do crescimento acelerado do TikTok, a Meta lançou o Reels às pressas
    • Motyl afirmou que “a velocidade veio antes da proteção do usuário”
    • Segundo ele, a equipe do Reels resistia a introduzir recursos de segurança porque conteúdo nocivo gerava maior engajamento
  • Brandon Silverman (fundador do Crowdtangle) testemunhou que Mark Zuckerberg era extremamente sensível à concorrência na época
    • A expansão do Reels recebeu 700 pessoas, enquanto a equipe de segurança tinha dificuldade para conseguir pessoal
  • O ex-engenheiro da Meta ‘Tim’ afirmou que as restrições a ‘conteúdo limítrofe’ foram afrouxadas por causa da concorrência com o TikTok
    • Ele disse que “com a queda das ações e a pressão por receita, foi tomada a decisão de afrouxar medidas para garantir ganhos de curto prazo”

Como o algoritmo funciona e seu impacto social

  • Documentos internos afirmam que conteúdos que provocam raiva e estímulos morais geram alto engajamento, e que o algoritmo os favorece
    • A lógica seria: “quanto mais raiva o usuário sente, mais conteúdo ele consome”
  • Especialistas britânicos da polícia em terrorismo relataram ter observado recentemente um fenômeno de ‘normalização’ de postagens antissemitas, racistas e de violência de extrema direita
  • Um usuário adolescente testemunhou que foi ‘radicalizado’ pelo algoritmo desde os 14 anos, dizendo que sua raiva e repulsa foram intensificadas

Posição oficial das empresas

  • Meta: “A alegação de que amplificamos conteúdo nocivo por ganho financeiro não é verdadeira”
    • A empresa destacou grandes investimentos em segurança e proteção nos últimos 10 anos e a introdução de recursos de proteção a adolescentes
  • TikTok: disse que “as alegações são fabricadas” e explicou que continua investindo em tecnologia para evitar a exposição a conteúdo nocivo
    • Acrescentou que “apoia milhões de pessoas a descobrir novos interesses e formar comunidades”

1 comentários

 
GN⁺ 2026-03-19
Opiniões do Hacker News
  • Nos últimos 5 anos, esse problema já parece ter virado senso comum
    Mas a verdadeira pergunta é: “então o que devemos fazer?”
    Tento não desperdiçar meu tempo com raiva online, mas isso é uma patologia social grande demais para um indivíduo suportar

    • Acho que esse comportamento deve ser impedido por regulação, ou então as empresas deveriam ser fechadas
      Se Meta ou TikTok têm saldo líquido negativo para a sociedade, não têm nenhum direito natural de existir
    • A publicidade online deve ser tributada e fortemente regulada
      A raiz do problema é que “gerar engajamento” dá dinheiro demais. Enquanto o incentivo financeiro não desaparecer, o problema também não vai desaparecer
    • Meu feed do Instagram hoje em dia está quase todo tomado por vídeos de políticos, polêmicas sobre o presidente e conteúdo apelativo
      Sinto que obtenho mais informação do que quando só ouço a NPR, mas evito conteúdo produzido (edição, música, narração etc.)
      Quero realmente absorver apenas a reação emocional que vem de algo que de fato aconteceu ou de algo que alguém disse
      “Conteúdo como notícia” precisa ter autenticidade
    • Uma abordagem do tipo “vamos reduzir a eficácia da droga” não é a resposta. Proibição também não
      Se olharmos para por que a Gen Z bebe menos álcool do que os millennials, talvez exista uma solução aí
    • Provavelmente não vamos fazer nada e continuar apenas reclamando
  • Acho que a expressão “conteúdo nocivo” no fim significa algo de que o governo ou um determinado país não gosta
    No fim das contas, isso soa como mais uma demanda por censura

    • Segundo uma pesquisa interna da BBC, os comentários no Reels tinham muito mais assédio e discurso de ódio do que em outros lugares
      Se algum grupo se opõe a esse tipo de violência, isso não seria algo bom?
    • No meu feed do TikTok, às vezes aparecem incitações diretas à violência contra judeus
      Mesmo denunciando, a única resposta que recebo é “nenhuma violação das regras”
  • É frustrante que essas plataformas ainda operem desse jeito
    O dano social já é conhecido há mais de 10 anos, e mesmo assim nada acontece
    Facebook e TikTok são, na prática, drogas digitais. E foram projetadas por pessoas sem empatia social

  • Esse resultado não é surpreendente. A maioria das pessoas provavelmente pensa o mesmo
    Ainda assim, é bom ver as evidências apresentadas de forma clara

  • Será que esse fenômeno é inevitável?
    Como ele gera cliques, visualizações e engajamento do usuário, se uma plataforma faz isso, as outras acabam sendo forçadas a seguir o mesmo caminho

    • Agora os próprios usuários precisam gerenciar seus feeds. Não dá mais para esperar que a plataforma organize tudo por nós
    • Taxa de engajamento não é a mesma coisa que participação de mercado
      Por exemplo, se um funcionário do McDonald’s insultar clientes, o ‘engajamento’ pode até aumentar, mas a participação de mercado cairá
  • Era óbvio que eles agiriam assim
    Enquanto for legal e der lucro, continuarão fazendo isso

  • Essa conversa se repete pelo menos desde 2012
    Está bem resumida no livro de Max Fisher The Chaos Machine
    Tanto Facebook quanto YouTube, quando recebem críticas, dizem que “tomaram medidas”, mas na prática repetem evasão, atraso, minimização e negação

  • Fico me perguntando se existe alguma instituição que monitore algoritmos nocivos e até entre com ações judiciais
    A Reset.tech faz um bom trabalho nessa área, mas queria saber se existem outras, e também quem as financia

  • Se faturam 20 bilhões de dólares e a multa é de 200 milhões, eles não vão se importar nem um pouco com a saúde mental dos usuários

  • Enquanto o público continuar reagindo a conteúdo sensacionalista, não há motivo para as plataformas deixarem de explorá-lo
    No fim, a maioria das publicações não passa de isca de clique