- Foi divulgado um relatório mostrando que o depoimento de Mark Zuckerberg, CEO da Meta, na audiência do Senado dos EUA em 2024 entra em conflito com documentos internos e revela declarações falsas intencionais
- O The Tech Oversight Project afirmou, após analisar documentos confidenciais e relatórios de especialistas, que Zuckerberg deturpou fatos em falas relacionadas a proteção infantil, saúde mental e segurança de conteúdo
- Segundo materiais internos, a Meta tinha conhecimento de problemas sistêmicos como estratégias para atrair usuários menores de 13 anos, facilitação de exploração sexual e ocultação de pesquisas privadas, mas deixou a situação continuar
- O relatório aponta que a Meta promoveu recursos de segurança para adolescentes, mas na prática a maioria era ineficaz, e que pesquisas internas comprovaram, ao contrário, piora da saúde mental e aumento do potencial viciante
- A organização enfatizou que são necessárias medidas legislativas como o ‘Kids Online Safety Act’ para corrigir esse comportamento
Visão geral do relatório do Tech Oversight Project
- O relatório, divulgado em Washington, D.C., compara o depoimento de Zuckerberg na audiência de 2024 do Comitê Judiciário do Senado com documentos internos recém-revelados
- Os documentos mostram que Zuckerberg mentiu ao Congresso e que a Meta encobriu seu fracasso em proteger adolescentes
- A organização lançou o microsite ‘Big Tech on Trial’, que reúne as evidências relacionadas e será atualizado continuamente durante o andamento do julgamento
- A diretora-executiva Sacha Haworth afirmou: “A Meta se escondeu atrás da Section 230, e agora o Congresso precisa agir”
Inconsistências entre as falas na audiência e as evidências internas
1. Recursos de segurança para adolescentes
- Zuckerberg afirmou que “estamos fazendo esforços líderes no setor para proteger adolescentes”, mas,
segundo investigações de grupos como a Fairplay, entre os 53 recursos de segurança do Instagram,
- 64% estavam desativados ou eram ineficazes,
- 19% tinham efeito limitado,
- apenas 17% funcionavam normalmente
- O relatório conclui que “a maioria dos recursos não consegue proteger adolescentes”
2. Design do produto e segurança infantil
- Zuckerberg disse que “um fundo de compensação para vítimas não é meu papel”, mas
o relatório pericial de Tim Estes afirma que as plataformas da Meta foram projetadas sem considerar a segurança infantil
- Foram apontados como problemas verificação etária fraca, controles parentais ineficazes e scroll infinito, reprodução automática e notificações
3. Negação do impacto na saúde mental
- Zuckerberg afirmou que “as evidências científicas não sustentam a alegação de que redes sociais são prejudiciais”, mas
os Facebook Files do WSJ e pesquisas internas relatam que o Instagram agrava queda de autoestima, ansiedade e risco de transtornos alimentares em adolescentes
- O impacto psicológico negativo se concentra especialmente em adolescentes do sexo feminino
4. Conteúdo sexual e tráfico humano
- Zuckerberg disse que “não permitimos conteúdo sexual”, mas,
segundo documentos internos, a Meta operava uma política que permitia até 17 violações por contas ligadas à prostituição
- Em 2020, 79% dos casos de exploração sexual infantil ocorreram em plataformas da Meta,
- e 22% dos menores que usavam o Instagram relataram experiência de contato sexual
5. Alegação de proibição para menores de 13 anos
- Zuckerberg afirmou que “menores de 13 anos não podem usar o serviço”, mas
documentos internos detalham estratégias segmentadas por faixa etária, incluindo ‘Kid’ de 6 a 10 anos e ‘Tween’ de 10 a 13 anos
- Os documentos ‘Tweens Competitive Audit’ e ‘Youth Privacy’ confirmam o objetivo de conquistar o mercado infantil
6. Ocultação de pesquisa sobre saúde mental
- Em uma “pesquisa de desativação” interna, a Meta confirmou que interromper o uso de redes sociais reduzia ansiedade e depressão, mas
suspendeu a divulgação por considerar os resultados negativos
- Há registro de um funcionário dizendo que isso “poderia fazer a empresa parecer uma companhia de tabaco”
7. Falhas no Messenger Kids
- Zuckerberg disse que “o Messenger Kids é mais seguro”, mas
um bug em 2019 permitiu chats em grupo entre crianças e usuários não aprovados
- A Meta corrigiu isso discretamente, mas o caso foi revelado pelo The Verge
8. Alegação de cooperação com os pais e política interna
- Zuckerberg disse que “protegemos as crianças junto com os pais”, mas
e-mails internos registram uma política de evitar avisar os pais, com a justificativa de que “se avisarmos os pais, o produto vai quebrar”
- Outro e-mail continha a frase: “precisamos otimizar o ato de olhar escondido para o celular durante a aula de química”
9. Avaliação do valor dos adolescentes
- Em um e-mail interno de 2018, o valor vitalício de um adolescente de 13 anos foi calculado em US$ 270
- Também aparece a preocupação da diretoria de que “até 2030 poderemos perder 30 milhões de usuários adolescentes”
Outros casos da Meta
1. Pesquisa sobre o potencial viciante do Instagram
- Adam Mosseri disse que “o impacto do app é mínimo”, mas
a pesquisa interna de 2019, ‘Teen Mental Health: Creatures of Habit’, afirmava que
- “adolescentes não conseguem desligar o Instagram, mesmo quando querem”,
- e que “uso viciante e pressão por perfeição são fatores centrais da ansiedade”
2. Efetividade do sistema de moderação de conteúdo
- Em relatório de 2023, a Meta afirmou remover automaticamente 99% do material de exploração infantil, mas
o denunciante Arturo Béjar revelou que a taxa real de detecção era inferior a 5%
- Também veio à tona que a diretoria ignorou propostas de melhoria de design e desmontou a equipe de pesquisa
Conclusão
- O relatório aponta que a Meta vem repetindo falhas na proteção de adolescentes e declarações falsas
- Alerta que, sem medidas legislativas obrigatórias, a empresa não irá melhorar voluntariamente
- Em especial, destaca a aprovação do Kids Online Safety Act como um meio central para proteger crianças e adolescentes
1 comentários
Opiniões do Hacker News
Por exemplo, é ambíguo afirmar categoricamente que houve mentira sobre o nível de investimento em ferramentas de proteção. Eles podem ter investido muito e, ainda assim, isso pode não ter funcionado
Lendo, há mentiras reais, mas parte disso me pareceu apenas diferença de interpretação. Acho melhor remover essas formulações de fronteira ou apresentá-las como algo do tipo “difícil de confiar”
Recentemente, ao ver Reels, encontrei conteúdo claramente adulto e denunciei, mas foi tratado como “não viola a política”. Pode haver muitas denúncias, mas a Meta não está cumprindo adequadamente o objetivo de moderação de conteúdo que diz ter
Por exemplo, dizer que “a Meta planejou um produto para crianças de 6 a 13 anos” vinha de um slide do Messenger Kids e tinha objetivo de conformidade com a COPPA.
E a crítica de que “dizem ajudar os pais, mas permitem que adolescentes se comuniquem escondido deles” na verdade estava no contexto de uma discussão sobre problemas de design do recurso de live streaming.
Eu também não gosto do Facebook, mas confio mais nas falas de Mark Zuckerberg do que neste artigo
Dá até para dizer que, no cenário atual, essa promessa foi cumprida
As disposições relevantes estão resumidas em um documento do Congress.gov.
Em caso de declaração falsa, a pena pode chegar a 5–8 anos de prisão, especialmente em casos ligados a tráfico sexual ou exploração infantil
Vendo casos assim, parece que o ritual de jurar dizer a verdade só acaba fortalecendo ainda mais a mentira
Ver também escândalo Watergate, escândalo Clinton–Lewinsky
há preocupação de que, tomando como exemplo a polêmica recente de verificação de idade no Discord, esse tipo de regulação acabe impondo verificação de identidade a todos os usuários
Mesmo quem não usa redes sociais pode acabar afetado, porque até um lugar como o Hacker News pode ser classificado como rede social na definição legal
Se o Facebook faz mal aos adolescentes e a Meta sabia disso e deixou acontecer, então a regulação é um meio inevitável