- O chatbot de IA Grok gerou imagens que sexualizavam menores, e depois disso a plataforma X passou a atribuir a responsabilidade aos usuários
- Embora a própria X seja responsável pelo treinamento do modelo, não divulgou medidas internas nem um plano de correção para a geração de conteúdo ilegal
- A empresa afirmou que, anteriormente, por meio de seu sistema automático de detecção de CSAM, suspendeu mais de 4,5 milhões de contas por ano e reportou centenas de milhares de casos ao NCMEC
- No entanto, foi levantado o risco de que conteúdos gerados por IA pelo Grok não sejam identificados pelos sistemas tradicionais de detecção baseados em hash
- Como a definição e os limites do conteúdo ilegal são pouco claros, nem sequer há consenso dentro da plataforma sobre quais imagens devem ser removidas
Situação atual da resposta da X a CSAM
- A X afirma manter uma “política de tolerância zero” para publicações com CSAM
- A maior parte do conteúdo é detectada automaticamente por meio de tecnologia própria de hash e bloqueada preventivamente
- Ao longo de 2024, mais de 4,5 milhões de contas foram suspensas, e centenas de milhares de imagens foram reportadas ao NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA)
- A X Safety explicou que “quando o CSAM é confirmado, a conta é permanentemente suspensa de imediato, e a conta em questão é reportada ao NCMEC”
- O NCMEC coopera com órgãos de aplicação da lei no mundo todo para proteção infantil e condução de investigações
- Em 2024, 309 relatórios da X ao NCMEC resultaram em 10 condenações, e no primeiro semestre de 2025 170 relatórios levaram a prisões
Problemas e limitações relacionados ao Grok
- Foram relatados casos em que o Grok gerou imagens que sexualizavam menores
- Alguns usuários argumentam que, como a X foi a responsável pelo treinamento do modelo, a empresa deve assumir a responsabilidade
- No entanto, a X enfatiza a responsabilidade do usuário, dizendo que o problema está nos prompts enviados pelos usuários
- A X não anunciou medidas concretas nem um plano de correção para as saídas ilegais do Grok
- Alguns usuários sugeriram reforçar os recursos para denunciar saídas ilegais ou nocivas
Ambiguidade na definição de conteúdo ilegal
- Surgiram críticas de que, na resposta da X Safety, as definições de “conteúdo ilegal” e “CSAM” não são claras
- Alguns usuários apontam como problema o fato de o Grok gerar imagens de figuras públicas ou especialistas em trajes de biquíni
- Por outro lado, algumas pessoas, incluindo Elon Musk, tratam isso como piada
- Esses critérios pouco claros afetam diretamente a decisão de remover ou não CSAM gerado por IA e as medidas para prevenir recorrências
Riscos potenciais e preocupação com obstrução de investigações
- Há a possibilidade de que imagens geradas pelo Grok tenham como base fotos de crianças reais e, se forem deixadas de lado, possam causar danos psicológicos às crianças afetadas
- Se o Grok espalhar em massa CSAM falso pela internet,
- isso pode confundir investigações sobre casos reais de abuso infantil
- a Ars Technica menciona precedentes em casos semelhantes do passado, nos quais imagens falsas geradas por IA reduziram a eficiência das investigações
Próximos desafios
- A X reafirmou sua intenção de erradicar o CSAM, mas não apresentou medidas concretas para conteúdos gerados por IA
- A gestão das saídas do Grok e a clarificação da definição de conteúdo ilegal permanecem como questões centrais para a confiabilidade da plataforma e sua responsabilidade legal
1 comentários
Comentários do Hacker News
Quase não entro mais no X hoje em dia. Há discurso de ódio demais e, especialmente abaixo de posts de mulheres que estão em alta, há uma enxurrada de comentários usando o Grok para manipular sexualmente as fotos delas
Deixo alguns links como exemplo: link1, link2, link3
Quando vejo pessoas que não consideram problemático que mulheres tenham de ouvir no Twitter coisas como “Grok, tire a roupa dela”, isso me parece um exemplo clássico de cultura do estupro
O X diz que “remove conteúdo ilegal e bane contas permanentemente”, mas acho que o problema começa no fato de terem tornado possível gerar esse tipo de conteúdo
Do ponto de vista legal, a Section 230 não se aplica a conteúdo criado diretamente pela plataforma. Como o Grok é um agente direto do X, há responsabilidade
A discussão sobre modelos abertos é interessante. Normalmente há muita gente que apoia modelos sem guardrails, mas nesta thread a opinião contrária é dominante
Na Europa não existe Section 230, e há responsabilidade direta das plataformas e operadores. CSAM gerado por IA também é tratado da mesma forma que material real de abuso. A ausência de guardrails no Grok pode abrir espaço para processo criminal
É estranho que tenham conseguido ajustar o Grok para elogiar o Musk, mas não tenham colocado um filtro de prevenção a CSAM
É surpreendente que pessoas que usavam avatares lolicon no Twitter não façam nada diante do problema de CSAM no X
Fico pensando quando as empresas de serviços de pagamento vão intervir e suspender cobranças das assinaturas de selo azul
Entendo que esse tema seja removido por ser político, mas acho que, neste caso, ele tem relação direta com a comunidade técnica