- O relatório de avaliação dos modelos de IA da DeepSeek publicado pela NIST em setembro de 2025 é um documento com finalidade política, não uma avaliação técnica neutra, e carrega a intenção de conter a IA open source chinesa sem apresentar evidências de ameaças reais à segurança
- O relatório não conseguiu apresentar qualquer evidência de backdoor, spyware ou vazamento de dados nos modelos da DeepSeek, apontando apenas que eles foram menos ajustados para segurança, são mais fáceis de contornar por jailbreak e refletem pontos de vista do governo chinês
- A DeepSeek contribuiu enormemente para a pesquisa aberta em IA ao divulgar completamente pesos do modelo, arquitetura e metodologia de treinamento sob licença Apache 2.0, mas o governo dos EUA a classificou como uma "IA adversária"
- A NIST confunde deliberadamente execução local com uso via API, omite comparações com outros modelos open source e não testa vieses de modelos americanos, usando uma metodologia enviesada
- O relatório faz parte de uma política industrial para conter a DeepSeek, que comprovou a competitividade da IA open source, a fim de proteger a posição monopolista das empresas americanas de IA, priorizando interesses comerciais e estratégicos acima da neutralidade científica
A natureza do relatório de avaliação da NIST sobre a DeepSeek
- O relatório da NIST sobre a DeepSeek, de 30 de setembro de 2025, é um documento de ataque político, não uma avaliação técnica neutra
- Não há absolutamente nenhuma evidência de backdoors, spyware ou vazamento de dados
- É uma tentativa do governo dos EUA de usar medo e desinformação para atrapalhar open science, open research e open source
- Ataca, com política e falsidades, uma contribuição para a humanidade a fim de proteger poder corporativo e manter controle
- Após a publicação do relatório, houve pânico online
- Alegações de que os pesos da DeepSeek estavam comprometidos
- Alegações de que a China estaria espionando por meio do modelo
- Alegações de que o simples download já seria um risco de segurança
- Todas essas alegações são falsas
As conquistas reais da DeepSeek
- Desenvolvimento de modelos de IA competitivos
- Alcançou desempenho de nível de ponta com um orçamento muito menor que OpenAI ou Anthropic
- Não é perfeito, mas é um resultado impressionante para o orçamento utilizado
- Abertura total sob licença Apache 2.0
- Pesos do modelo
- Arquitetura
- Metodologia de treinamento
- Artigos de pesquisa
- Permitiu que qualquer pessoa reproduzisse o trabalho e executasse modelos em escala de fronteira localmente
- Tornando possível recriar tudo do zero
- Uma das maiores contribuições para a pesquisa aberta em IA dos últimos anos
- Reação do governo dos EUA: rotular como "IA adversária" e insinuar espionagem
A principal estratégia de engano da NIST
- Confusão deliberada de três cenários
- Cenário A: ao usar o app/API da DeepSeek, prompts são enviados para servidores na China (questão real de soberania de dados)
- Cenário B: ao baixar pesos abertos e executar localmente, os dados não saem do dispositivo
- Cenário C: ao hospedar em serviços terceirizados confiáveis como OpenRouter, Fireworks e Chutes, o controle de infraestrutura e privacidade depende do provedor de hospedagem
- A NIST mistura intencionalmente essas situações totalmente diferentes
- Soma downloads locais enquanto alerta sobre um "risco à segurança nacional"
- Qualquer pessoa com conhecimento técnico básico sabe que isso é enganoso
- Essa confusão se torna a base para o restante do enquadramento enganoso do relatório
O que a NIST realmente encontrou
- O que sobra ao remover a linguagem sensacionalista
- Os modelos da DeepSeek são mais fáceis de contornar por jailbreak do que modelos americanos ajustados para segurança
- Às vezes refletem o ponto de vista do governo chinês
- Têm desempenho ligeiramente inferior em certos benchmarks
- Alega-se que o custo por token é mais alto (sem metodologia fornecida)
- É só isso
- Nenhuma evidência de comportamento malicioso
- Nenhuma evidência de vazamento de dados
- Nenhuma evidência de que o modelo cometa atos maliciosos além de "responder a prompts de uma forma de que não gostamos"
- Análise da descoberta sobre jailbreak
- Porque a DeepSeek investiu menos em treinamento de segurança (questão de recursos)
- A NIST não testou modelos americanos antigos para comparação
- Enquanto isso, o gpt-oss-120b da OpenAI é muito fácil de quebrar via jailbreak
- Análise da descoberta sobre a "narrativa do Partido Comunista Chinês"
- Não é surpreendente que um modelo treinado com dados chineses reflita pontos de vista chineses
- Ele está sujeito às leis de censura da China
- Isso não é uma vulnerabilidade de segurança
Comparações que a NIST não fez
- Não compara com outros modelos abertos
- Onde estão Llama, Mistral e Falcon?
- Se comparasse, mostraria que isso não é um problema da DeepSeek, mas sim que modelos abertos em geral têm menos camadas de segurança do que modelos monopolistas
- Não compara com modelos americanos mais antigos
- Como era a vulnerabilidade a jailbreak do GPT-3 em 2020?
- Essa comparação enfraqueceria a narrativa, por isso não é feita
- Não testa viés americano em modelos americanos
- Parece que apenas o viés chinês é tratado como risco de segurança
- Usa benchmarks fechados
- "Benchmarks fechados construídos pela CAISI" que não permitem reprodução nem verificação
- Isso não é ciência, é pesquisa de defesa de causa
O que o relatório realmente diz
- Lendo nas entrelinhas
- Os modelos da DeepSeek são menos polidos — como houve menos investimento em desenvolvimento, é natural que tenham arestas
- Os modelos chineses são competitivos o bastante para preocupar — se não ameaçassem participação de mercado, esse relatório não existiria
- Os EUA temem perder a dominância em IA — o relatório foi explicitamente encomendado sob o "Plano de Ação para IA" de Trump. A declaração do secretário de Comércio deixa claro que se trata de política industrial, não de avaliação neutra
A ameaça real (dica: não é sobre você)
- O que a DeepSeek realmente ameaçou: o monopólio
- O verdadeiro crime da DeepSeek foi mostrar que open source funciona
- Provou que é possível construir modelos poderosos sem bilhões em venture capital nem APIs fechadas
- Isso aterroriza empresas que vendem acesso à IA por preços premium
- Quando a DeepSeek disse "aqui estão os pesos, execute você mesmo", atacou o fosso econômico do qual essas empresas dependem
- É por isso que o relatório da NIST existe
- Porque a DeepSeek provou que a abertura pode competir com sistemas fechados
- E o establishment precisa barrar isso
A hipocrisia
- Avisos da NIST vs realidade
- NIST: alerta que modelos da DeepSeek podem responder a prompts maliciosos em ambiente simulado
- Realidade: modelos americanos de fato enviam dados reais para servidores externos
- O caso da OpenAI
- Lembra quando as conversas do ChatGPT eram usadas para treinamento?
- Só depois da reação negativa foi adicionada a opção de opt-out
- Comparação
- Executar pesos da DeepSeek localmente = zero envio de dados
- Usar a API da OpenAI = envio contínuo de dados para servidores
- Qual dos dois é o risco de privacidade?
- O relatório alerta sobre "adoção de IA estrangeira", enquanto ignora que toda API em nuvem, americana ou não, exige confiar na infraestrutura de terceiros
- Pesos abertos rodando localmente são mais auditáveis e mais seguros do que qualquer serviço em nuvem
- Mas essa não é a mensagem. Porque isso nunca foi sobre segurança. Foi sobre controle de narrativa
A traição ao open source e à open science
- A comunidade open source construiu a base da IA moderna
- Linux, Python, PyTorch, Transformers
- Décadas de desenvolvimento colaborativo, compartilhado livremente
- A DeepSeek participa dessa tradição
- Pegou conhecimento aberto, construiu algo impressionante e devolveu à comunidade
- Resposta das instituições americanas: chamar isso de ameaça
- Imagine se a China tivesse feito isso quando a Meta lançou o Llama
- Se tivesse publicado um relatório do governo alegando que os pesos do Llama eram uma ferramenta de vigilância porque são "vulneráveis a jailbreak"
- Nós chamaríamos isso de protecionismo. Paranóia tecnológica. Ataque à pesquisa aberta
- Mas quando nós fazemos isso? "Segurança nacional"
- A pesquisa aberta precisa ser universal
- Não dá para defender open science só quando convém
Um teste que você mesmo pode fazer
- Não acredite em mim, não acredite na NIST, verifique por conta própria
- Baixe os pesos da DeepSeek
- Use huggingface transformers, vLLM, LM Studio, llama.cpp para executar localmente
- Abra uma ferramenta de monitoramento de rede
- Observe
- Exatamente zero pacotes sendo enviados para qualquer lugar
- O prompt é processado inteiramente no dispositivo
- A terrível "ameaça à segurança" está apenas fazendo multiplicação de matrizes sem se conectar a nada
- Pergunte-se: por que o governo dos EUA está mentindo sobre isso?
- A "ameaça à segurança" não está no modelo. Está na política
Com o que você realmente deveria se preocupar
- Existem preocupações legítimas
- Uso da API da DeepSeek: se você enviar dados sensíveis ao serviço hospedado da DeepSeek, eles passarão por infraestrutura chinesa. É a mesma questão real de soberania de dados que existe ao usar qualquer provedor estrangeiro de nuvem
- Vulnerabilidade a jailbreak: se você estiver construindo uma aplicação em produção, teste vulnerabilidades em qualquer modelo e implemente proteções no nível da aplicação. Não dependa só das barreiras do modelo. Além disso, use modelos de guarda em tempo de inferência (como LlamaGuard ou Qwen3Guard) para classificar e filtrar tanto prompts quanto respostas
- Viés e censura: todo modelo reflete seus dados de treinamento. Esteja ciente disso independentemente do modelo usado
- Esses são desafios de engenharia
- Não são motivo para evitar por completo modelos open source (ou chineses)
O significado disso para o futuro da IA
- Isso não é apenas sobre a DeepSeek
- É sobre se a IA continuará aberta e auditável ou se será cercada por governos e empresas
- As perguntas
- Vamos permitir que "open source" seja redefinido como "aberto apenas se for dos EUA"?
- Vamos exigir evidências reais para alegações de segurança ou aceitar insinuações vagas?
- A IA continuará sendo um projeto humano compartilhado ou se tornará uma arma geopolítica?
- A DeepSeek provou que existe outro caminho. É por isso que precisou ser desacreditada
A visão do autor
- Contexto do autor
- Executa modelos open source localmente
- Treina seus próprios modelos
- Acredita em alinhamento componível e liberdade do usuário
- Acredita que a IA deve ser uma ferramenta para usuários, não para corporações ou governos
- Avaliação do relatório da NIST
- Não é uma avaliação técnica neutra
- É um documento de política desenhado para impedir a adoção de modelos chineses de IA e proteger interesses comerciais e estratégicos dos EUA
- Posição sobre a promoção industrial pelo governo dos EUA
- Não há nada inerentemente errado em o governo dos EUA promover a indústria americana
- Mas é preciso chamar isso pelo nome
- Não disfarçar protecionismo como pesquisa de segurança
- Não fabricar ameaças
- Não mentir ao público sobre o que as evidências mostram
- A contribuição da DeepSeek
- Nos deu um presente valioso
- Os pesos são apenas dados
safetensor
- Ficam no disco e funcionam conforme o comando
- Não ligam para casa. Não espionam. Não vazam dados
- Conclusão
- Se você está preocupado, provavelmente não entende como a inferência local funciona
- Se acredita em alarmismo, foi manipulado com sucesso
- Nada disso é sobre segurança. É sobre poder — quem constrói, compartilha e entende as ferramentas que moldam o futuro
Conclusão
- O código e a pesquisa são open source e auditáveis. Todo o resto é política
- Recomendação ao leitor
- Leia o relatório da NIST e o código por conta própria
- Procure evidências reais de código malicioso ou funções de vigilância
- Você não vai encontrar. Porque elas não existem
- Depois comece a perguntar
- Por que pedem que você tema o open source quando ele funciona bem demais?
1 comentários
Opinião no Hacker News
exfiltrationjá dá para notar que o ensaio e o relatório original do NIST divergem. O fato de uma página clickbait receber mais atenção do que um relatório técnico de 70 páginas mostra como a capacidade de atenção das pessoas anda curta hoje em dia