Anthropic divulga detecção e resposta a ataques de destilação ilegal do Claude por empresas chinesas de IA
(anthropic.com)A Anthropic anunciou oficialmente que três empresas chinesas de IA — DeepSeek, MiniMax e Moonshot AI — extraíram ilegalmente as capacidades do Claude.
Escala do ataque
As três empresas criaram, ao todo, 24.000 contas falsas e geraram mais de 16 milhões de conversas com o Claude, em clara violação dos termos de serviço da Anthropic e das restrições regionais de acesso.
As características por empresa são as seguintes. A DeepSeek concentrou-se em obter capacidades relacionadas a lógica básica e consultas sensíveis a políticas por meio de mais de 150 mil conversas. A MiniMax gerou 13 milhões de conversas, mais de 80% do total, com foco em agentic coding, uso de ferramentas e orquestração, e a Anthropic detectou isso em tempo real, identificando a MiniMax antes de ela lançar o modelo. Em particular, quando a Anthropic lançou um novo modelo, a MiniMax demonstrou agilidade ao redirecionar metade do tráfego para o novo modelo em até 24 horas.
Método do ataque
Como o acesso ao Claude dentro da China está bloqueado por razões de segurança nacional, o bloqueio foi contornado por meio de serviços de proxy que operavam dezenas de milhares de contas falsas (arquitetura “hydra cluster”). Houve casos em que uma única rede de proxy operou simultaneamente mais de 20.000 contas falsas, e o tráfego foi enviado misturado ao de usuários comuns para dificultar a detecção.
Resposta da Anthropic
A empresa construiu classificadores como detecção baseada em comportamento (behavioral fingerprinting) e detecção de padrões de extração de chain-of-thought, e está compartilhando indicadores técnicos com outras empresas de IA, provedores de nuvem e autoridades relacionadas. Também reforçou a verificação em rotas frequentemente exploradas para abertura de contas falsas, como contas educacionais e contas de startups.
Perspectiva de segurança nacional
A Anthropic definiu o caso não como mera violação de termos, mas como uma ameaça à segurança nacional. Segundo a empresa, modelos destilados ilegalmente têm alta probabilidade de ter removidas salvaguardas como prevenção ao desenvolvimento de armas biológicas e químicas e bloqueio de ciberataques, o que enfraquece a política dos EUA de controle de exportação de IA. A empresa pediu uma resposta conjunta da indústria, de provedores de nuvem e de formuladores de políticas, afirmando que “nenhuma empresa consegue resolver isso sozinha”.
A OpenAI já havia anteriormente reportado ao Congresso conduta semelhante da DeepSeek, e a expectativa é que as discussões sobre uma resposta coordenada de toda a indústria de IA dos EUA ganhem força.
8 comentários
A OpenAI e a Anthropic são bem lamentáveis: usam tecnologia/pesquisa de base criada pelo Google e montam seus datasets com material pirateado, mas quando a gente vê as duas fazendo lobby no Congresso para tentar criminalizar modelos open source, isso mostra perfeitamente o que é ganância.
Como é que Google, que já é big tech estabelecida, e as empresas chinesas de IA acabam sendo mais ativas na divulgação de pesquisas? É uma farsa sem igual.
Afinal, quem é que está desenvolvendo tecnologia em benefício da humanidade...? É hipócrita e enganoso.
Concordo. Principalmente a Anthropic, ultimamente, cada passo que dá é realmente lamentável. Parece que apareceu alguém pior até que o Google.
Como eles mesmos ficam nessa entre si, isso mostra claramente que essa história de segurança nacional e afins no fim das contas não passa de framing...
Talvez seja porque o que a própria pessoa construiu parece valioso demais, e o que os outros fizeram acaba parecendo banal. Parece também que a era de competir de forma justa já passou..
Gente que não cobra o pecado de ter roubado..
https://cnbc.com/2026/02/…
Pelo fato de terem fornecido ao próprio Ministério da Defesa do país e só agora levantarem isso como problema, penso que a regra de oposição ao uso para fins militares é apenas um pretexto e não faz sentido do começo ao fim. É um grupo que mostra uma coisa por fora e outra por dentro. Parece ver alguém dizendo que não se interessa por dinheiro enquanto é obcecado por dinheiro.
Pensando bem, a maioria dos LLMs já é feita com textos e dados escritos por outras pessoas...
Até que ponto isso pode ser considerado pirataria?
Como esperado, o nerd obcecado por Twitter Elon Musk também deu seu pitaco
https://x.com/elonmusk/status/2026052687423562228
"A Anthropic é culpada de roubar dados de treinamento em larga escala e deveria ter pago dezenas de bilhões de dólares em indenização por esse roubo. Isso é um fato inequívoco."
Parece que a situação é: primeiro treinam o modelo ilegalmente e, depois, chegam a um acordo por um valor pequeno...