- O TikTok afirmou que não vai adotar criptografia de ponta a ponta (E2EE), alegando que isso impediria a polícia e as equipes de segurança de verificar mensagens, dificultando a proteção dos usuários
- A empresa explicou que tomou essa decisão especialmente para proteger adolescentes e destacou que escolheu deliberadamente um caminho diferente do adotado pelos concorrentes
- Atualmente, plataformas importantes como WhatsApp, Messenger e Signal aplicam E2EE por padrão, enquanto o TikTok disse usar apenas criptografia comum em nível semelhante ao do Gmail
- As entidades de proteção infantil NSPCC e IWF receberam bem a decisão do TikTok e avaliaram que a E2EE dificulta a detecção de exploração sexual infantil
- No entanto, especialistas apontam que essa decisão vai contra padrões globais de privacidade e pode reforçar preocupações sobre vínculos com a China
Decisão do TikTok sobre política de criptografia
- O TikTok confirmou oficialmente que não vai adotar criptografia de ponta a ponta (E2EE)
- A empresa explicou que essa tecnologia impede que a polícia e as equipes de segurança acessem mensagens quando necessário, prejudicando a segurança dos usuários
- Em um briefing de segurança realizado no escritório da BBC em Londres, enfatizou que se trata de uma medida especialmente voltada à proteção de adolescentes
- O TikTok afirmou que tomou essa decisão como uma estratégia diferenciada em relação aos concorrentes
- Isso contrasta com o fato de plataformas importantes como Facebook, Instagram, Messenger e X terem adotado E2EE
- O TikTok declarou que usa criptografia padrão e que apenas funcionários autorizados podem acessar mensagens em situações específicas
A controvérsia em torno da E2EE
- A E2EE é considerada a tecnologia de segurança mais forte, na qual apenas remetente e destinatário podem ver o conteúdo das mensagens
- Aplicada por padrão em Signal, WhatsApp, iMessage e Google Messages
- No Telegram, é opcional; no Snapchat, vale apenas para fotos e vídeos
- O Discord pretende aplicar E2EE por padrão em chamadas de voz e vídeo
- No entanto, governos, polícia e entidades de proteção infantil criticam a E2EE por considerarem que ela dificulta a detecção de conteúdo ilegal e atrapalha investigações
- A alegação é que criminosos conseguem escapar da vigilância, aumentando o risco de danos aos usuários e de disseminação de conteúdo ilegal
Proteção de dados do TikTok e críticas
- O TikTok explicou que protege mensagens com criptografia padrão e que só pode acessá-las em caso de solicitação legal ou denúncia de atividade nociva
- A empresa continua negando suspeitas de ligação com o governo chinês
- A operação nos EUA foi separada do negócio global por determinação do Congresso
- A empresa opera o Project Clover para proteger usuários europeus
- Ainda assim, a estrutura de propriedade da ByteDance continua levantando preocupações sobre acesso a dados
Reações externas
- A NSPCC recebeu positivamente a decisão do TikTok e afirmou que a E2EE dificulta a detecção de exploração sexual infantil, reduzindo o número de denúncias
- A IWF avaliou que “adiar a adoção de E2EE por razões de segurança é um precedente importante”
- O professor Alan Woodward, da Universidade de Surrey, disse que “na China a E2EE é amplamente proibida, e pode haver influência chinesa na decisão do TikTok”
- O analista do setor Matt Navarra avaliou que o TikTok sustenta a posição de que “prioriza segurança proativa acima do absolutismo da privacidade”, o que seria estrategicamente inteligente, mas controverso
Contexto global e perspectivas
- A decisão do TikTok é vista como um movimento na direção oposta à tendência global de privacidade
- Enquanto outras plataformas ampliam a E2EE, o TikTok escolheu manter a cooperação com órgãos de aplicação da lei
- Especialistas analisam que essa decisão pode estar relacionada à manutenção de relações com formuladores de políticas públicas e à intenção de reforçar a proteção de adolescentes
- A expectativa é que continue o debate sobre o equilíbrio entre privacidade e segurança em torno da E2EE
1 comentários
Comentários do Hacker News
Acho que é aceitável dizer que “neste app há quase nenhuma privacidade”
O TikTok é basicamente uma plataforma voltada ao público, com pouca noção de grupos fechados ou de seguimento mútuo
Se você precisa de privacidade, pode migrar para outros apps como Signal ou Snapchat
Ainda assim, como o TikTok já esteve sob vigilância do governo chinês no passado e agora virou uma distopia plutocrática na versão americana, acho inútil esperar qualquer postura de princípios deles
Na verdade, considero mais problemático fazer como o Facebook, que levanta a bandeira da “privacidade” enquanto não investe recursos suficientes no combate a CSAM (material de abuso sexual infantil)
Se vai oferecer mensagens entre indivíduos, então precisa aplicar E2EE (criptografia de ponta a ponta) obrigatoriamente
Caso contrário, seria melhor operar tudo como um fórum público
Para quebrar esse monopólio, acho que seria necessária uma regulação que obrigasse a federação (federation)
Assim, as plataformas poderiam competir por monetização ou usabilidade, em vez de depender do aprisionamento do usuário
Na prática, lê as mensagens para reprimir opiniões políticas divergentes ou para fins de controle
A maioria dos usuários não consegue distinguir essa confusão entre privacidade e CSAM
Mas vender isso como “segurança” é enganoso e distorce a opinião pública
Para ser E2EE de verdade,
Sem essas condições, não deveria ser chamado de E2EE
Acho que as empresas estão reempacotando a velha lógica dos governos de que “E2EE é perigoso para crianças”
Eu preferiria que menores usassem um ‘dispositivo restrito’, com liberação quando atingissem a maioridade
Assim, não seria necessário que todo SaaS verificasse diretamente a identidade do usuário
Seria perfeitamente possível o smartphone repassar aos apps apenas uma flag de ‘child’
Tentar mudar os valores das pessoas em si é perda de tempo
Hoje em dia as pessoas veem a questão da verificação de idade de forma simplista demais
A maioria dos serviços já sabe a idade do usuário e usa esses dados para fazer otimização algorítmica opaca
Por isso, acho que não basta proibir só a verificação de idade — é preciso proibir o próprio data mining e o ajuste algorítmico
Mais importante do que as DMs das crianças é como os dados delas estão sendo usados
Muita gente se preocupa com as duas coisas
Se quiserem, os pais podem instalar keylogger ou gravação de tela, mas empresas como o Google jamais deveriam poder fazer isso
Com tecnologias como Verifiable Credentials, é possível verificar só a idade sem repassar dados pessoais
DM é como uma conversa privada no mundo real
Portanto, toda função de DM deveria incluir E2EE
Se a plataforma não quiser isso, então seria melhor remover totalmente a função de DM e deixar todas as mensagens públicas
É preciso uma estrutura em que os pais possam conceder individualmente aos filhos permissão de acesso a DMs
No mundo real também existe uma zona intermediária entre publicidade total e privacidade total
Ou seja, E2EE só impede intermediários ingênuos
São questões separadas
O TikTok é quase como um posto avançado de vigilância governamental, então essa posição não é surpreendente
A ausência de E2EE não reduz essa capacidade
Como se cada região comprasse o direito de operação para coletar informações
Acho que dizer que “torna os usuários menos seguros” é só desculpa
Na realidade, é apenas uma tentativa de evitar atritos com o governo
Diante do dinheiro, princípios desaparecem
Dizer “menos seguro” não explica menos seguro para quem
Para governos autoritários talvez seja menos seguro, mas isso é um problema que eles deveriam suportar
Acho difícil confiar em E2EE dentro de apps fechados
Mesmo que um auditor confirme que ligaram corretamente o libsignal, o código interno ainda pode ter hooks de varredura de conteúdo
Vendo que a Apple quase concluiu sua tecnologia de escaneamento de imagens, essa possibilidade é bem real
Ainda assim, a vantagem do E2EE é que, mesmo que o servidor seja invadido, os dados continuam sendo um bloco de texto cifrado sem sentido
Por exemplo, quase nenhum usuário do Signal realmente compara os números de segurança
No fim, o problema é mais de usabilidade do que de segurança
Mesmo sem possibilidade de verificação, assumem que “proteção = E2EE”
Apontei isso também no texto “I don’t trust Signal”
Se o servidor é a ponta, então isso não é E2EE de verdade
Além disso, os metadados valem muito mais do que o conteúdo da conversa
O TikTok originalmente é uma plataforma pública de vídeos, então não entendo por que as pessoas insistem em usá-lo para conversas privadas
Gente mais velha não entende bem isso
Mesmo sabendo que a segurança é fraca, pelo tipo de conversa isso não parece um grande problema
Eles usam o TikTok simplesmente pela conveniência
Dizem que é um “recurso de privacidade controverso”, mas eu queria saber quem exatamente considera isso controverso
Segundo os padrões da NSA ou do GCHQ?
Dentro da Meta, Monika Bickert e Antigone Davis também mencionaram que o E2EE representa riscos para crianças
Isso também pode ser confirmado na reportagem da Reuters relevante a respeito