1 pontos por GN⁺ 2026-02-19 | 1 comentários | Compartilhar no WhatsApp
  • Foi divulgado um relatório mostrando que o depoimento de Mark Zuckerberg, CEO da Meta, na audiência do Senado dos EUA em 2024 entra em conflito com documentos internos e revela declarações falsas intencionais
  • O The Tech Oversight Project afirmou, após analisar documentos confidenciais e relatórios de especialistas, que Zuckerberg deturpou fatos em falas relacionadas a proteção infantil, saúde mental e segurança de conteúdo
  • Segundo materiais internos, a Meta tinha conhecimento de problemas sistêmicos como estratégias para atrair usuários menores de 13 anos, facilitação de exploração sexual e ocultação de pesquisas privadas, mas deixou a situação continuar
  • O relatório aponta que a Meta promoveu recursos de segurança para adolescentes, mas na prática a maioria era ineficaz, e que pesquisas internas comprovaram, ao contrário, piora da saúde mental e aumento do potencial viciante
  • A organização enfatizou que são necessárias medidas legislativas como o ‘Kids Online Safety Act’ para corrigir esse comportamento

Visão geral do relatório do Tech Oversight Project

  • O relatório, divulgado em Washington, D.C., compara o depoimento de Zuckerberg na audiência de 2024 do Comitê Judiciário do Senado com documentos internos recém-revelados
    • Os documentos mostram que Zuckerberg mentiu ao Congresso e que a Meta encobriu seu fracasso em proteger adolescentes
  • A organização lançou o microsite ‘Big Tech on Trial’, que reúne as evidências relacionadas e será atualizado continuamente durante o andamento do julgamento
  • A diretora-executiva Sacha Haworth afirmou: “A Meta se escondeu atrás da Section 230, e agora o Congresso precisa agir”

Inconsistências entre as falas na audiência e as evidências internas

1. Recursos de segurança para adolescentes

  • Zuckerberg afirmou que “estamos fazendo esforços líderes no setor para proteger adolescentes”, mas,
    segundo investigações de grupos como a Fairplay, entre os 53 recursos de segurança do Instagram,
    • 64% estavam desativados ou eram ineficazes,
    • 19% tinham efeito limitado,
    • apenas 17% funcionavam normalmente
  • O relatório conclui que “a maioria dos recursos não consegue proteger adolescentes”

2. Design do produto e segurança infantil

  • Zuckerberg disse que “um fundo de compensação para vítimas não é meu papel”, mas
    o relatório pericial de Tim Estes afirma que as plataformas da Meta foram projetadas sem considerar a segurança infantil
    • Foram apontados como problemas verificação etária fraca, controles parentais ineficazes e scroll infinito, reprodução automática e notificações

3. Negação do impacto na saúde mental

  • Zuckerberg afirmou que “as evidências científicas não sustentam a alegação de que redes sociais são prejudiciais”, mas
    os Facebook Files do WSJ e pesquisas internas relatam que o Instagram agrava queda de autoestima, ansiedade e risco de transtornos alimentares em adolescentes
    • O impacto psicológico negativo se concentra especialmente em adolescentes do sexo feminino

4. Conteúdo sexual e tráfico humano

  • Zuckerberg disse que “não permitimos conteúdo sexual”, mas,
    segundo documentos internos, a Meta operava uma política que permitia até 17 violações por contas ligadas à prostituição
    • Em 2020, 79% dos casos de exploração sexual infantil ocorreram em plataformas da Meta,
    • e 22% dos menores que usavam o Instagram relataram experiência de contato sexual

5. Alegação de proibição para menores de 13 anos

  • Zuckerberg afirmou que “menores de 13 anos não podem usar o serviço”, mas
    documentos internos detalham estratégias segmentadas por faixa etária, incluindo ‘Kid’ de 6 a 10 anos e ‘Tween’ de 10 a 13 anos
    • Os documentos ‘Tweens Competitive Audit’ e ‘Youth Privacy’ confirmam o objetivo de conquistar o mercado infantil

6. Ocultação de pesquisa sobre saúde mental

  • Em uma “pesquisa de desativação” interna, a Meta confirmou que interromper o uso de redes sociais reduzia ansiedade e depressão, mas
    suspendeu a divulgação por considerar os resultados negativos
    • Há registro de um funcionário dizendo que isso “poderia fazer a empresa parecer uma companhia de tabaco”

7. Falhas no Messenger Kids

  • Zuckerberg disse que “o Messenger Kids é mais seguro”, mas
    um bug em 2019 permitiu chats em grupo entre crianças e usuários não aprovados
    • A Meta corrigiu isso discretamente, mas o caso foi revelado pelo The Verge

8. Alegação de cooperação com os pais e política interna

  • Zuckerberg disse que “protegemos as crianças junto com os pais”, mas
    e-mails internos registram uma política de evitar avisar os pais, com a justificativa de que “se avisarmos os pais, o produto vai quebrar”
    • Outro e-mail continha a frase: “precisamos otimizar o ato de olhar escondido para o celular durante a aula de química”

9. Avaliação do valor dos adolescentes

  • Em um e-mail interno de 2018, o valor vitalício de um adolescente de 13 anos foi calculado em US$ 270
    • Também aparece a preocupação da diretoria de que “até 2030 poderemos perder 30 milhões de usuários adolescentes”

Outros casos da Meta

1. Pesquisa sobre o potencial viciante do Instagram

  • Adam Mosseri disse que “o impacto do app é mínimo”, mas
    a pesquisa interna de 2019, ‘Teen Mental Health: Creatures of Habit’, afirmava que
    • “adolescentes não conseguem desligar o Instagram, mesmo quando querem”,
    • e que “uso viciante e pressão por perfeição são fatores centrais da ansiedade”

2. Efetividade do sistema de moderação de conteúdo

  • Em relatório de 2023, a Meta afirmou remover automaticamente 99% do material de exploração infantil, mas
    o denunciante Arturo Béjar revelou que a taxa real de detecção era inferior a 5%
    • Também veio à tona que a diretoria ignorou propostas de melhoria de design e desmontou a equipe de pesquisa

Conclusão

  • O relatório aponta que a Meta vem repetindo falhas na proteção de adolescentes e declarações falsas
  • Alerta que, sem medidas legislativas obrigatórias, a empresa não irá melhorar voluntariamente
  • Em especial, destaca a aprovação do Kids Online Safety Act como um meio central para proteger crianças e adolescentes

1 comentários

 
GN⁺ 2026-02-19
Opiniões do Hacker News
  • Seria melhor não misturar mentiras de fato com simples questões de julgamento
    Por exemplo, é ambíguo afirmar categoricamente que houve mentira sobre o nível de investimento em ferramentas de proteção. Eles podem ter investido muito e, ainda assim, isso pode não ter funcionado
    Lendo, há mentiras reais, mas parte disso me pareceu apenas diferença de interpretação. Acho melhor remover essas formulações de fronteira ou apresentá-las como algo do tipo “difícil de confiar”
    • Concordo totalmente. Resumindo os casos graves citados no artigo,
      1. Mark disse que “proíbe conteúdo sexualmente explícito para todas as idades”, mas na prática havia uma política de 17 advertências, e em 2020 foi relatado que 65% das vítimas de tráfico sexual infantil vieram do Facebook e 14% do Instagram (relatório de referência)
      2. Em pesquisas internas, usuários que pararam de usar Facebook/Instagram tiveram redução de ansiedade, depressão e solidão, mas a Meta interrompeu a pesquisa e não divulgou os resultados
      3. Adam Mosseri disse que “o impacto na saúde mental dos adolescentes é pequeno”, mas em relatórios internos a análise era de que “os adolescentes não conseguem largar o app, como um vício, e sentem pressão para serem perfeitos”
    • No mínimo, seria melhor apresentar primeiro as mentiras mais evidentes e deixar as partes ambíguas para depois
    • Eles podem ter investido muito dinheiro e ainda assim obtido poucos resultados, ou talvez só 17% das 71 ferramentas fossem eficazes, mas isso já fosse suficiente. A proporção de eficácia não significa, por si só, o resultado total
    • Como diz o ditado “se misturar uvas-passas com merda, no fim continua sendo merda”; quando se misturam argumentos fortes e fracos, a credibilidade do conjunto cai
    • Há muitas pessoas revoltadas e bots que odeiam tudo o que bilionários dizem. Tenho a sensação de que é difícil filtrar esse ruído e separar os problemas reais
  • A alegação de que “79% do tráfico sexual infantil em 2020 aconteceu em plataformas da Meta” pareceu exagerada demais, então fui checar a fonte. Na verdade, era que “entre as vítimas recrutadas via redes sociais, 65% vieram do Facebook e 14% do Instagram”. Esse número inflado parece sensacionalismo. Só para constar, eu nem tenho conta no Facebook e não tenho interesse nenhum na Meta
    • Eu também vi essa parte. O estudo analisava apenas “vítimas recrutadas por redes sociais”, e 100% do grupo era baseado em redes sociais. No fim, isso é só um mapa de participação por plataforma, então dizer que 79% de todas as vítimas de tráfico sexual se referem a isso é uma distorção evidente
    • Entendo que esse número esteja errado, mas acho que seria mais convincente apresentar junto as fontes ou a lógica
  • Eu não ligava muito para esse tema, mas, vendo os exemplos no artigo, acabei concordando com a conclusão da Tech Oversight
    Recentemente, ao ver Reels, encontrei conteúdo claramente adulto e denunciei, mas foi tratado como “não viola a política”. Pode haver muitas denúncias, mas a Meta não está cumprindo adequadamente o objetivo de moderação de conteúdo que diz ter
    • A esta altura, “há denúncias demais” já não serve muito como desculpa. Para uma empresa que investe tanto em AI, casos óbvios deveriam poder ser priorizados por AI e depois tratados por humanos
    • Eu já denunciei um vídeo de decapitação e ele também foi encerrado como “não viola a política”
    • Denunciei ameaças de violência e o Instagram respondeu que “não viola a política”
    • Já vi denúncias serem ignoradas e, dias depois, a conta desaparecer. Talvez o sistema esteja ocultando isso por meio de processamento em lote
    • No Twitter também denunciei dezenas de vezes, mas quase nunca isso foi tratado corretamente
  • Pelos casos que conheço, a maioria parece menos “mentira” e mais distorção de contexto
    Por exemplo, dizer que “a Meta planejou um produto para crianças de 6 a 13 anos” vinha de um slide do Messenger Kids e tinha objetivo de conformidade com a COPPA.
    E a crítica de que “dizem ajudar os pais, mas permitem que adolescentes se comuniquem escondido deles” na verdade estava no contexto de uma discussão sobre problemas de design do recurso de live streaming.
    Eu também não gosto do Facebook, mas confio mais nas falas de Mark Zuckerberg do que neste artigo
  • Lembro que, na época da aquisição do Instagram, havia a impressão de que a condição era “não integrar com o FB”, mas na prática parece que tudo acabou totalmente integrado nos bastidores. Os dois serviços até caem ao mesmo tempo
    • Isso não era uma condição. Se olhar o anúncio da época, só dizia “manter a independência e os pontos fortes do Instagram” (link do anúncio oficial)
      Dá até para dizer que, no cenário atual, essa promessa foi cumprida
    • Não é só gestão de conta; conteúdo e comentários do Instagram também podem ser enviados automaticamente para o Facebook
    • No fim, parece que ele escondia suas intenções desde o começo
    • O FB sabe até o histórico de busca no eBay. Há uma estrutura de compartilhamento de dados entre empresas sem consentimento do usuário
    • Ele sempre foi uma figura manipuladora. Grande parte do topo da indústria é desse tipo, e as pessoas trabalham acreditando que estão “do lado moralmente certo”. Em empresas baseadas em publicidade, no fundo é tudo muito parecido
  • O Congresso e o DOJ provavelmente não vão fazer nada, mas a punição legal por perjúrio perante o Congresso está claramente prevista
    As disposições relevantes estão resumidas em um documento do Congress.gov.
    Em caso de declaração falsa, a pena pode chegar a 5–8 anos de prisão, especialmente em casos ligados a tráfico sexual ou exploração infantil
  • Isso me lembrou da gravação do depoimento ao Congresso dos CEOs das empresas de tabaco em 1994, quando disseram que “nicotina não é viciante”
    • O Nixon com “eu não sou corrupto”, o Clinton com “eu não tive relações com aquela mulher”, e do Trump nem preciso falar
      Vendo casos assim, parece que o ritual de jurar dizer a verdade só acaba fortalecendo ainda mais a mentira
      Ver também escândalo Watergate, escândalo Clinton–Lewinsky
  • Quando eu era criança, acreditava que “se você quebrar a lei, vai para a prisão”; sinto falta daquela época
    • Isso ainda vale só para gente comum como nós. Para ricos e poderosos, há exceções
    • Eu também acreditava, quando era criança, que a justiça funcionava e que o governo trabalhava pelo povo. Hoje sinto que tudo isso era ilusão
    • Foi vendo escândalos de grandes financistas que tive certeza. A lei não alcança os ricos. Para lidar com esse tipo de gente, parecem ser necessários meios além da lei
    • Isso não é culpa de juízes de esquerda. É um problema estrutural
  • Sobre a afirmação de que “para impedir as práticas perigosas da Meta é preciso uma lei como a Kids Online Safety Act”,
    há preocupação de que, tomando como exemplo a polêmica recente de verificação de idade no Discord, esse tipo de regulação acabe impondo verificação de identidade a todos os usuários
    Mesmo quem não usa redes sociais pode acabar afetado, porque até um lugar como o Hacker News pode ser classificado como rede social na definição legal
    • Pode ser que um dia, ao pensar em “internet censurada”, as pessoas não lembrem primeiro da China, mas sim de países ocidentais, especialmente Reino Unido ou Estados Unidos
    • Então qual seria a alternativa?
    • A polêmica do Discord era sobre o método de verificação de identidade, e o projeto da KOSA não tem essa cláusula. Interpretar a KOSA como uma lei de verificação de identidade é ignorância
    • Parece uma reação exagerada do tipo “para acabar com o agressor doméstico do bairro, vamos explodir uma bomba nuclear no meio da cidade”
    • Concordo com a lógica de que, “quando o lucro das empresas entra em conflito com o bem humano, regulação é necessária”.
      Se o Facebook faz mal aos adolescentes e a Meta sabia disso e deixou acontecer, então a regulação é um meio inevitável
  • No Safari do iOS, o CSS está completamente quebrado: a primeira coluna fica fixa e pequena demais, deixando as linhas anormalmente longas
    • No Firefox para Android acontece a mesma coisa. Usar o modo leitor ajuda um pouco, mas ainda é incômodo
    • Um site ficar assim quebrado no iOS é grave a ponto de até render piada de que o Congresso deveria intervir