DeepClaude - use o loop de agente do Claude Code 17 vezes mais barato com DeepSeek V4 Pro
(github.com/aattaran)- DeepClaude troca apenas o destino das chamadas de API do loop de ferramentas, edição de arquivos, bash e fluxo git do Claude Code CLI, mantendo todo o restante, para backends compatíveis com DeepSeek V4 Pro, OpenRouter, Fireworks AI e Anthropic
- O Claude Code tem cobrança mensal de US$ 200 e limites de uso, enquanto o DeepSeek V4 Pro destaca pontuação de 96,4% no LiveCodeBench e preço de US$ 0,87/M por token de saída
- Funcionam leitura, escrita e edição de arquivos, execução de Bash/PowerShell, busca com Glob/Grep, loop autônomo de ferramentas em múltiplas etapas, criação de subagentes, tarefas com git,
/inite o thinking mode ativado por padrão - O backend padrão é o DeepSeek; o OpenRouter é oferecido com servidores nos EUA e baixa latência, o Fireworks AI com inferência rápida, e o Anthropic como opção para usar Claude Opus em problemas difíceis
- Os preços por backend são apresentados como DeepSeek e OpenRouter com entrada a US$ 0,44/M e saída a US$ 0,87/M, Fireworks AI com entrada a US$ 1,74/M e saída a US$ 3,48/M, e Anthropic com entrada a US$ 3,00/M e saída a US$ 15,00/M
- O DeepClaude configura
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODELeCLAUDE_CODE_SUBAGENT_MODELpor sessão e restaura a configuração original ao encerrar - O cache automático de contexto do DeepSeek armazena em cache o prompt de sistema e o contexto de arquivos após a primeira requisição por US$ 0,004/M, reduzindo o custo do loop de agente em turnos repetidos
- A comparação de uso indica que, frente ao Anthropic Max de US$ 200/mês, o DeepClaude ficaria em cerca de US$ 20/mês para uso leve, US$ 50/mês para uso intenso e US$ 80/mês incluindo loops automáticos
- As limitações também são claras: o endpoint Anthropic do DeepSeek não suporta entrada de imagens, o Claude Code envia ferramentas sequencialmente por padrão, as ferramentas de MCP server não são suportadas pela camada de compatibilidade, e o
cache_controlda Anthropic é ignorado - Há suporte a live switching para trocar de backend durante a sessão sem reiniciar, e o proxy em
localhost:3200envia/v1/messagespara o backend ativo e oferece os endpoints de controle/_proxy/mode,/_proxy/statuse/_proxy/cost - Dentro do Claude Code é possível usar comandos com barra como
/deepseek,/anthropice/openrouter, ou trocar o backend comdeepclaude --switch ds; o proxy também calcula o uso de tokens e a economia em relação à Anthropic - É possível executar com perfil de terminal do VS Code/Cursor, e
--remoteabre a sessão do Claude Code no navegador, mas a ponte WebSocket usa Anthropic enquanto as chamadas de API do modelo são enviadas para DeepSeek e outros via proxy local - Para controle remoto são necessários
claude auth login, uma assinatura do claude.ai e Node.js 18+ para o proxy; a licença do projeto é MIT
1 comentários
Comentários do Hacker News
Rodar o Claude Code com a API da DeepSeek é, na prática, possível com um wrapper de shell que só define algumas variáveis de ambiente
Basta configurar
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKENeANTHROPIC_MODEL, e então executarclaude $@Só que a API da DeepSeek aparentemente não permite optar por exclusão de treinamento, e acho que isso melhoraria se aparecesse em outros provedores. O OpenRouter, no momento, parece apenas fazer proxy para a DeepSeek
Só que essas funções ficaram escondidas demais em um README que parece ter sido feito por LLM, e pelo histórico parece que elas foram adicionadas depois, sem reorganizar a estrutura do README
O autor também comitou um plano de divulgação em redes sociais que parece eficaz: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
É só executar algo como
aivo claude -m deepseek-v4-proNão entendi muito bem qual é o significado disso. A DeepSeek já explica como usar a API em vários CLIs, incluindo o Claude Code
https://api-docs.deepseek.com/quick_start/agent_integrations...
Parece que a LLM que escreveu o README não atualizou a descrição geral do projeto para destacar essas funções
O plano de divulgação do autor também foi comitado: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Se você está procurando uma alternativa ao Claude Code, eu recomendaria primeiro olhar o pi.dev ou o opencode como framework de execução
Em modelo, o OpenCode Go parece ter a melhor relação custo-benefício no momento, e também dá para usar OpenRouter ou conexão direta com a DeepSeek. Pessoalmente, acho melhor ir de Kimi e assinar o kimi.com
No meu projeto paralelo pessoal, mouse.dev, estou combinando partes de OpenCode, Claude Code e Hermes para criar uma arquitetura de agente em nuvem que funciona bem também no mobile
Depois descobri que um bot estava simplesmente fechando todas automaticamente. Sem comentários
Mesmo se o preço do token for de só US$ 1 por 1 milhão de tokens, é surpreendentemente fácil gastar US$ 200 em tokens
Por mais que eu faça as contas, um plano de codificação continua tendo melhor custo-benefício
Se desempenho no nível do Sonnet já for suficiente, isso com certeza parece um upgrade
Mas o Sonnet comete erros demais, então sinto que otimizar custo nesse nível de modelo acaba não tendo muito valor. Ainda assim, é bom ter opções
Separar Opus para design e DeepSeek para implementação parece uma forma de reduzir bastante o custo. Eu, pessoalmente, evitaria a Anthropic por completo, mas entendo por que usam
Seja para empresa ou para funcionário, não vejo muito motivo para não usar o melhor modelo disponível agora com a intensidade de raciocínio mais alta, ou a segunda mais alta. Não é barato, mas também não é absurdamente caro
Para construir uma boa arquitetura, é preciso ler muita especificação, código etc., então o volume de tokens de entrada e saída cresce bastante, e na correção de bugs acontece o mesmo se você incluir logs e Datadog
Depois que você acha a direção, os patches passam a ser triviais e, a menos que esteja fazendo refatoração ou limpeza, a economia usando um modelo mais barato também é pequena
Os testes ficam cada vez mais complexos. Só no opencode go já há GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro e DeepSeek V4 Flash
Agora você tem que rodar todos esses modelos em escala, com bugs e tudo, e não sei se estou deixando passar alguma coisa aqui. Fico me perguntando qual é o uso real dos modelos mais baratos
Claude.mdsólido, revisar periodicamente a saída e impor boas práticas de código com gates básicos de CI, quase nunca precisa trocar para o OpusDá a impressão de que pediram para a IA em modo one-shot fazer algo que normalmente se resumiria a configurar duas variáveis de ambiente
Fico me perguntando se o Claude Code é mesmo o melhor framework de execução para programação. Existe algum lugar que rode avaliações sobre isso?
Já o Claude Code é a ferramenta mais subsidiada, tanto no Max voltado ao consumidor quanto nos descontos de tokens para empresas. Ele também faz otimizações agressivas de custo, como cache de tokens e redução da quantidade de raciocínio, e isso cobra seu preço em qualidade
Depois de usar DeepSeek V4 em vários CLIs, o Langcli foi o que mais combinou comigo. Em tarefas de programação, a taxa de acerto de cache passa de 95%
Ele permite alternar de forma fluida e dinâmica entre DeepSeek V4 Flash, V4 Pro e outros modelos populares dentro do mesmo contexto, e também é 100% compatível com o Claude Code
Passei metade do dia fazendo CUDA e LLAMA rodarem numa 5070TI
Consegui testar com o modo agente do Roo, fiz ele escrever um plano e depois parei, mas se eu tiver mais tempo pretendo continuar
Como a DeepSeek pode ser auto-hospedada se você tiver dinheiro suficiente, a chance de um desligamento repentino parece menor, mas ainda assim uma solução local me anima mais
Normalmente o que se precisa é trabalho braçal simples, não resolver problemas difíceis
Dá claramente a sensação de algo coescrito com vibe coding, e o preço também não bate