1 pontos por GN⁺ 2026-02-04 | 1 comentários | Compartilhar no WhatsApp
  • A divisão de combate ao cibercrime da França realizou busca e apreensão no escritório do X em Paris, enquanto investiga suspeitas de extração ilegal de dados e conspiração para posse de pornografia infantil
  • Elon Musk e a ex-CEO Linda Yaccarino foram intimados a comparecer a uma audiência em abril, e o X rebateu dizendo que a investigação é um “ataque político”
  • O Information Commissioner’s Office (ICO) do Reino Unido abriu uma investigação separada sobre a ferramenta de IA Grok, citando a possibilidade de geração de imagens e vídeos sexuais
  • A Ofcom está tratando a disseminação de deepfakes sexuais na plataforma X como questão urgente, mas afirmou não ter autoridade suficiente sobre chatbots
  • Com investigações simultâneas na Europa e no Reino Unido, a responsabilidade do X e do Grok pelo tratamento de dados e pela moderação de conteúdo está se ampliando internacionalmente

Busca e apreensão no escritório do X na França

  • A divisão de cibercrime do Ministério Público de Paris realizou busca e apreensão no escritório do X
    • As suspeitas incluem extração ilegal de dados, conspiração para posse de pornografia infantil e violação de direitos de imagem por meio de deepfakes sexuais
    • A investigação começou em janeiro de 2025 com uma apuração sobre o conteúdo do algoritmo de recomendação do X e, em julho do mesmo ano, foi ampliada para o chatbot de IA Grok
  • O Ministério Público investiga se o X violou várias leis, e Musk e Yaccarino receberam ordem para comparecer a uma audiência em abril
  • Em comunicado, o X negou as acusações e classificou o caso como “abuso que ameaça a liberdade de expressão
    • Musk publicou no X que se trata de um “ataque político”, e Yaccarino afirmou que é uma “retaliação política contra americanos

Investigação do Reino Unido sobre o Grok

  • A Ofcom do Reino Unido continua investigando um caso em que imagens deepfake sexuais geradas pelo Grok circularam no X
    • Vítimas, políticos e grupos de segurança online já haviam feito duras críticas em janeiro
    • Depois disso, o X bloqueou essa conduta, e a Ofcom a tratou como “questão urgente”
  • No entanto, a Ofcom afirmou não ter autoridade suficiente para investigar diretamente a geração de imagens ilegais por chatbots
  • Diante disso, o ICO decidiu cooperar com a Ofcom para investigar como o Grok trata dados pessoais
    • William Malcolm, do ICO, afirmou que “o fato de imagens sexuais terem sido geradas usando dados pessoais sem consentimento é um problema grave”
  • No fim de janeiro, a Comissão Europeia também anunciou uma investigação separada sobre a controladora do Grok, a xAI
    • Um porta-voz da Comissão disse que está em contato com as autoridades francesas sobre a busca no escritório do X

Crítica de Pavel Durov

  • O fundador do Telegram, Pavel Durov, criticou as autoridades francesas e afirmou que “não é um país livre
    • Ele publicou que “a França é o único país que reprime criminalmente todas as redes sociais que permitem liberdade”
  • Durov foi preso na França em agosto de 2024 por acusação de tolerar atividades criminosas na plataforma e, após modificar parcialmente a forma de operação, recebeu autorização para deixar o país em março de 2025
    • Entre as mudanças está o fornecimento de dados de usuários mediante solicitação legal

1 comentários

 
GN⁺ 2026-02-04
Comentários do Hacker News
  • Para quem diz que uma busca e apreensão física não faz sentido, eu diria o seguinte
    Isso faria sentido se estivéssemos falando de uma empresa normal que cumpre bem a lei, mas no momento em que começa a fazer coisas suspeitas, todas as boas práticas desaparecem
    As pessoas passam a escrever e-mails como se fossem cifras ou apagá-los, e tentam esconder registros, mas no fim sempre ficam rastros
    Por isso, para rastrear atividades complexas, buscas e apreensões reais são necessárias

    • Isso é simplesmente procedimento investigativo básico
      Se há suspeita de crime, é preciso garantir as provas. Acusar alguém sem busca e apreensão não faz sentido
    • Se for só por causa de “nus com IA”, acho exagerado
      Imagens geradas por IA são apenas desenhos digitais falsos, mas isso parece estar sendo tratado como se alimentasse uma indignação em nível de Estado
      É coisa de moleque adolescente, então fazer um show de indignação nacional por isso é ridículo
    • Na prática, essa busca e apreensão parece ser apenas um meio de punir a empresa, não uma tentativa real de obter dados relacionados ao Grok
  • Nenhuma plataforma deveria permitir CSAM (material de abuso sexual infantil)
    Só que o X não gasta dinheiro com proteções nem com filtragem de conteúdo. Isso não é uma questão de censura, e sim de fuga de responsabilidade

    • Discordo. Deve-se punir o usuário, não quem criou a ferramenta
      Se começarem a responsabilizar o fornecedor da ferramenta, isso acaba levando à redução da liberdade
    • Já havia muito desse conteúdo no antigo Twitter, no BlueSky e no Mastodon. Nada de novo
    • Nos anos 90, o CSAM também se espalhava pela internet, e a sociedade também ficou chocada naquela época
      Então por que, de repente, essa postura tão dura agora?
      Às vezes penso se isso não seria uma “repressão de fachada” para encobrir suspeitas envolvendo gente da elite após o caso Epstein
    • Antes, CSAM significava envolver crianças reais, mas agora inclui até imagens geradas por IA
      Nesse caso, imagens violentas geradas por IA também deveriam ser proibidas? Brutalidade no nível de filmes seria aceitável?
      É ambíguo onde começa o “inadmissível”
    • Nunca vi provas de que o Grok realmente tenha gerado CSAM
      Vi montagens com trajes de banho, mas isso não é CSAM pela definição legal
  • Há uma acusação de “fraude organizada de dados”, e se isso for aplicado de forma ampla, parece que o impacto sobre toda a indústria de mídia social será grande

    • Isso parece uma investigação no estilo “escolhem a pessoa primeiro e depois procuram o crime”
      Parece um movimento da UE para reforçar o controle de redes sociais estrangeiras, como fazem China ou Rússia
      Se os EUA não aceitarem mais regulação sobre expressão, a UE provavelmente vai pressionar suas próprias alternativas
  • Como é típico do HN, está todo mundo debatendo intensamente estado de direito e a questão do CSAM

  • Há reportagens dizendo que os irmãos proprietários de X/Grok estariam ligados a um condenado por tráfico sexual de menores
    O Grok já é chamado de gerador de pornografia infantil, e ainda assim há quem descarte isso como “teoria da conspiração”

  • O Ministério Público francês estaria investigando o X por várias violações legais, mas isso parece apenas pressão política
    Fora importunar os funcionários locais, não parece haver ganho prático

    • Mas apreender registros também é um procedimento investigativo normal
      O sistema judicial francês é racional, então, sem provas especiais em contrário, isso parece uma investigação legítima
    • Há evidências de que a empresa realmente lucrou distribuindo CSAM e pornografia deepfake
      Para confirmar se houve intenção, a busca e apreensão é necessária
      A discussão jurídica relacionada também aparece neste artigo
    • Ainda assim, isso é pressão política. A UE não tolera dissidência
    • OpenAI e Google também estão enfrentando problemas parecidos
      Por mais dinheiro que joguem nisso, é difícil impedir completamente o uso indevido de IA
  • Fico me perguntando o que exatamente esperam encontrar ao invadir o escritório francês. Um “plano de CSAM do Grok”, talvez?

    • Pode parecer surpreendente, mas as pessoas realmente colocam planos criminosos em e-mails
      Um exemplo são documentos internos do Facebook
    • Parece que eles querem encontrar registros internos de decisão sobre se a empresa sabia que o Grok gerava imagens problemáticas e mesmo assim deixou isso acontecer
    • Pode haver e-mails da filial francesa alertando a sede sobre possíveis violações da lei
    • Segundo artigo do WaPo, a xAI deliberadamente afrouxou as restrições de conteúdo sexual
      Também há depoimentos de funcionários dizendo que o modelo foi treinado com conteúdo perigoso
      A equipe de investigação parece estar procurando esse tipo de comunicação interna e alertas ignorados
    • Depois da divulgação dos arquivos Epstein, passei a achar mais provável que “e-mails com plano de crime” realmente existam
  • Esse caso acabou dando munição aos defensores da censura de IA
    Agora entramos numa era em que empresas de IA terão de assumir responsabilidade pelo próprio modelo, e não apenas pelos usuários
    No fim, parece que haverá mais modelos fechados e verificação de identidade

    • Não é diferente de outras plataformas. A única diferença é que aqui não se trata de “distribuição”, e sim de “geração”
    • O problema não é a possibilidade de gerar, mas o fato de terem promovido isso sabendo
      O ponto central da responsabilidade jurídica é se havia conhecimento real
    • É duvidoso que o X tenha tomado medidas suficientes para impedir a circulação de conteúdo ilegal
      Ao adicionar recursos de geração por IA, na prática acabou estimulando a produção de conteúdo ilegal
    • Eu não vejo isso como censura, e sim como sanção a uma plataforma desalinhada
      A UE já via essa plataforma como um incômodo desde a aquisição do X
    • Não é “censura”, é simplesmente questão de responsabilidade operacional
      Se deixaram tudo solto sem filtragem, isso é negligência clara
  • Essa controvérsia também deve afetar negativamente o IPO da SpaceX

    • Se a investigação sobre a xAI afetar também os contratos com a SpaceX, há uma boa chance de surgirem processos judiciais por conflito de interesses
  • É irônico um “russo falando de liberdade numa prisão francesa”
    Soa como uma mensagem de que a França não recebe esse tipo de criminoso de braços abertos