- A divisão de combate ao cibercrime da França realizou busca e apreensão no escritório do X em Paris, enquanto investiga suspeitas de extração ilegal de dados e conspiração para posse de pornografia infantil
- Elon Musk e a ex-CEO Linda Yaccarino foram intimados a comparecer a uma audiência em abril, e o X rebateu dizendo que a investigação é um “ataque político”
- O Information Commissioner’s Office (ICO) do Reino Unido abriu uma investigação separada sobre a ferramenta de IA Grok, citando a possibilidade de geração de imagens e vídeos sexuais
- A Ofcom está tratando a disseminação de deepfakes sexuais na plataforma X como questão urgente, mas afirmou não ter autoridade suficiente sobre chatbots
- Com investigações simultâneas na Europa e no Reino Unido, a responsabilidade do X e do Grok pelo tratamento de dados e pela moderação de conteúdo está se ampliando internacionalmente
Busca e apreensão no escritório do X na França
- A divisão de cibercrime do Ministério Público de Paris realizou busca e apreensão no escritório do X
- As suspeitas incluem extração ilegal de dados, conspiração para posse de pornografia infantil e violação de direitos de imagem por meio de deepfakes sexuais
- A investigação começou em janeiro de 2025 com uma apuração sobre o conteúdo do algoritmo de recomendação do X e, em julho do mesmo ano, foi ampliada para o chatbot de IA Grok
- O Ministério Público investiga se o X violou várias leis, e Musk e Yaccarino receberam ordem para comparecer a uma audiência em abril
- Em comunicado, o X negou as acusações e classificou o caso como “abuso que ameaça a liberdade de expressão”
- Musk publicou no X que se trata de um “ataque político”, e Yaccarino afirmou que é uma “retaliação política contra americanos”
Investigação do Reino Unido sobre o Grok
- A Ofcom do Reino Unido continua investigando um caso em que imagens deepfake sexuais geradas pelo Grok circularam no X
- Vítimas, políticos e grupos de segurança online já haviam feito duras críticas em janeiro
- Depois disso, o X bloqueou essa conduta, e a Ofcom a tratou como “questão urgente”
- No entanto, a Ofcom afirmou não ter autoridade suficiente para investigar diretamente a geração de imagens ilegais por chatbots
- Diante disso, o ICO decidiu cooperar com a Ofcom para investigar como o Grok trata dados pessoais
- William Malcolm, do ICO, afirmou que “o fato de imagens sexuais terem sido geradas usando dados pessoais sem consentimento é um problema grave”
- No fim de janeiro, a Comissão Europeia também anunciou uma investigação separada sobre a controladora do Grok, a xAI
- Um porta-voz da Comissão disse que está em contato com as autoridades francesas sobre a busca no escritório do X
Crítica de Pavel Durov
- O fundador do Telegram, Pavel Durov, criticou as autoridades francesas e afirmou que “não é um país livre”
- Ele publicou que “a França é o único país que reprime criminalmente todas as redes sociais que permitem liberdade”
- Durov foi preso na França em agosto de 2024 por acusação de tolerar atividades criminosas na plataforma e, após modificar parcialmente a forma de operação, recebeu autorização para deixar o país em março de 2025
- Entre as mudanças está o fornecimento de dados de usuários mediante solicitação legal
1 comentários
Comentários do Hacker News
Para quem diz que uma busca e apreensão física não faz sentido, eu diria o seguinte
Isso faria sentido se estivéssemos falando de uma empresa normal que cumpre bem a lei, mas no momento em que começa a fazer coisas suspeitas, todas as boas práticas desaparecem
As pessoas passam a escrever e-mails como se fossem cifras ou apagá-los, e tentam esconder registros, mas no fim sempre ficam rastros
Por isso, para rastrear atividades complexas, buscas e apreensões reais são necessárias
Se há suspeita de crime, é preciso garantir as provas. Acusar alguém sem busca e apreensão não faz sentido
Imagens geradas por IA são apenas desenhos digitais falsos, mas isso parece estar sendo tratado como se alimentasse uma indignação em nível de Estado
É coisa de moleque adolescente, então fazer um show de indignação nacional por isso é ridículo
Nenhuma plataforma deveria permitir CSAM (material de abuso sexual infantil)
Só que o X não gasta dinheiro com proteções nem com filtragem de conteúdo. Isso não é uma questão de censura, e sim de fuga de responsabilidade
Se começarem a responsabilizar o fornecedor da ferramenta, isso acaba levando à redução da liberdade
Então por que, de repente, essa postura tão dura agora?
Às vezes penso se isso não seria uma “repressão de fachada” para encobrir suspeitas envolvendo gente da elite após o caso Epstein
Nesse caso, imagens violentas geradas por IA também deveriam ser proibidas? Brutalidade no nível de filmes seria aceitável?
É ambíguo onde começa o “inadmissível”
Vi montagens com trajes de banho, mas isso não é CSAM pela definição legal
Há uma acusação de “fraude organizada de dados”, e se isso for aplicado de forma ampla, parece que o impacto sobre toda a indústria de mídia social será grande
Parece um movimento da UE para reforçar o controle de redes sociais estrangeiras, como fazem China ou Rússia
Se os EUA não aceitarem mais regulação sobre expressão, a UE provavelmente vai pressionar suas próprias alternativas
Como é típico do HN, está todo mundo debatendo intensamente estado de direito e a questão do CSAM
Há reportagens dizendo que os irmãos proprietários de X/Grok estariam ligados a um condenado por tráfico sexual de menores
O Grok já é chamado de gerador de pornografia infantil, e ainda assim há quem descarte isso como “teoria da conspiração”
O Ministério Público francês estaria investigando o X por várias violações legais, mas isso parece apenas pressão política
Fora importunar os funcionários locais, não parece haver ganho prático
O sistema judicial francês é racional, então, sem provas especiais em contrário, isso parece uma investigação legítima
Para confirmar se houve intenção, a busca e apreensão é necessária
A discussão jurídica relacionada também aparece neste artigo
Por mais dinheiro que joguem nisso, é difícil impedir completamente o uso indevido de IA
Fico me perguntando o que exatamente esperam encontrar ao invadir o escritório francês. Um “plano de CSAM do Grok”, talvez?
Um exemplo são documentos internos do Facebook
Também há depoimentos de funcionários dizendo que o modelo foi treinado com conteúdo perigoso
A equipe de investigação parece estar procurando esse tipo de comunicação interna e alertas ignorados
Esse caso acabou dando munição aos defensores da censura de IA
Agora entramos numa era em que empresas de IA terão de assumir responsabilidade pelo próprio modelo, e não apenas pelos usuários
No fim, parece que haverá mais modelos fechados e verificação de identidade
O ponto central da responsabilidade jurídica é se havia conhecimento real
Ao adicionar recursos de geração por IA, na prática acabou estimulando a produção de conteúdo ilegal
A UE já via essa plataforma como um incômodo desde a aquisição do X
Se deixaram tudo solto sem filtragem, isso é negligência clara
Essa controvérsia também deve afetar negativamente o IPO da SpaceX
É irônico um “russo falando de liberdade numa prisão francesa”
Soa como uma mensagem de que a França não recebe esse tipo de criminoso de braços abertos