1 pontos por GN⁺ 4 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • DeepClaude troca apenas o destino das chamadas de API do loop de ferramentas, edição de arquivos, bash e fluxo git do Claude Code CLI, mantendo todo o restante, para backends compatíveis com DeepSeek V4 Pro, OpenRouter, Fireworks AI e Anthropic
  • O Claude Code tem cobrança mensal de US$ 200 e limites de uso, enquanto o DeepSeek V4 Pro destaca pontuação de 96,4% no LiveCodeBench e preço de US$ 0,87/M por token de saída
  • Funcionam leitura, escrita e edição de arquivos, execução de Bash/PowerShell, busca com Glob/Grep, loop autônomo de ferramentas em múltiplas etapas, criação de subagentes, tarefas com git, /init e o thinking mode ativado por padrão
  • O backend padrão é o DeepSeek; o OpenRouter é oferecido com servidores nos EUA e baixa latência, o Fireworks AI com inferência rápida, e o Anthropic como opção para usar Claude Opus em problemas difíceis
  • Os preços por backend são apresentados como DeepSeek e OpenRouter com entrada a US$ 0,44/M e saída a US$ 0,87/M, Fireworks AI com entrada a US$ 1,74/M e saída a US$ 3,48/M, e Anthropic com entrada a US$ 3,00/M e saída a US$ 15,00/M
  • O DeepClaude configura ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL e CLAUDE_CODE_SUBAGENT_MODEL por sessão e restaura a configuração original ao encerrar
  • O cache automático de contexto do DeepSeek armazena em cache o prompt de sistema e o contexto de arquivos após a primeira requisição por US$ 0,004/M, reduzindo o custo do loop de agente em turnos repetidos
  • A comparação de uso indica que, frente ao Anthropic Max de US$ 200/mês, o DeepClaude ficaria em cerca de US$ 20/mês para uso leve, US$ 50/mês para uso intenso e US$ 80/mês incluindo loops automáticos
  • As limitações também são claras: o endpoint Anthropic do DeepSeek não suporta entrada de imagens, o Claude Code envia ferramentas sequencialmente por padrão, as ferramentas de MCP server não são suportadas pela camada de compatibilidade, e o cache_control da Anthropic é ignorado
  • Há suporte a live switching para trocar de backend durante a sessão sem reiniciar, e o proxy em localhost:3200 envia /v1/messages para o backend ativo e oferece os endpoints de controle /_proxy/mode, /_proxy/status e /_proxy/cost
  • Dentro do Claude Code é possível usar comandos com barra como /deepseek, /anthropic e /openrouter, ou trocar o backend com deepclaude --switch ds; o proxy também calcula o uso de tokens e a economia em relação à Anthropic
  • É possível executar com perfil de terminal do VS Code/Cursor, e --remote abre a sessão do Claude Code no navegador, mas a ponte WebSocket usa Anthropic enquanto as chamadas de API do modelo são enviadas para DeepSeek e outros via proxy local
  • Para controle remoto são necessários claude auth login, uma assinatura do claude.ai e Node.js 18+ para o proxy; a licença do projeto é MIT

1 comentários

 
GN⁺ 4 시간 전
Comentários do Hacker News
  • Rodar o Claude Code com a API da DeepSeek é, na prática, possível com um wrapper de shell que só define algumas variáveis de ambiente
    Basta configurar ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN e ANTHROPIC_MODEL, e então executar claude $@

    • Em projetos que não são secretos, venho usando assim com DeepSeek v4 há cerca de uma semana e quase não noto diferença, talvez porque eu não esteja pedindo tarefas muito pesadas
      Só que a API da DeepSeek aparentemente não permite optar por exclusão de treinamento, e acho que isso melhoraria se aparecesse em outros provedores. O OpenRouter, no momento, parece apenas fazer proxy para a DeepSeek
    • Parece que qualquer projeto zoando a Claude sobe para o 1º lugar no Hacker News, mesmo que tenha só quatro linhas de código
    • A parte mais interessante do deepclaude é o proxy local que troca de modelo no meio da sessão e o rastreamento integrado de custos
      Só que essas funções ficaram escondidas demais em um README que parece ter sido feito por LLM, e pelo histórico parece que elas foram adicionadas depois, sem reorganizar a estrutura do README
      O autor também comitou um plano de divulgação em redes sociais que parece eficaz: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Por isso eu criei o https://getaivo.dev, que permite usar o modelo direto a partir de agentes de codificação
      É só executar algo como aivo claude -m deepseek-v4-pro
    • No fundo, essa abordagem permite usar qualquer modelo com o Claude Code, inclusive modelos locais
  • Não entendi muito bem qual é o significado disso. A DeepSeek já explica como usar a API em vários CLIs, incluindo o Claude Code
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • O README realmente esconde por completo funções nada triviais: ele roda um proxy para troca de modelo no meio da sessão e faz rastreamento unificado de custos ao usar Anthropic junto com outros modelos
      Parece que a LLM que escreveu o README não atualizou a descrição geral do projeto para destacar essas funções
      O plano de divulgação do autor também foi comitado: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Provavelmente não significa muita coisa. Dá a sensação de alguém que não entendeu direito o que estava vendo nem pesquisou, montou a primeira ideia de uma vez e publicou na primeira página do HN e em todas as redes sociais
    • Parece uma ferramenta feita por vibe coder para vibe coder
    • Pelo que vi, o formato de chamadas de ferramenta não é exatamente igual. Então, para conectar qualquer IA ao Claude Code, provavelmente é preciso converter o formato
    • Fico curioso sobre o quão bem isso funciona na prática. Usei DeepSeek no Hermes e no Opencode e, mesmo com instruções fortes no prompt de sistema, ele era muito ruim em usar ferramentas básicas como a memória holográfica do Hermes
  • Se você está procurando uma alternativa ao Claude Code, eu recomendaria primeiro olhar o pi.dev ou o opencode como framework de execução
    Em modelo, o OpenCode Go parece ter a melhor relação custo-benefício no momento, e também dá para usar OpenRouter ou conexão direta com a DeepSeek. Pessoalmente, acho melhor ir de Kimi e assinar o kimi.com

    • Também deixo meu framework de execução como opção: https://codeberg.org/mlow/lmcli
    • pi.dev e opencode também são bons, mas o Claude Code ainda é o que tem mais plugins e skills que eu quero usar
    • Concordo. O OpenCode tem uma base sólida e, com alguns ajustes, pode virar um framework de execução muito eficaz
      No meu projeto paralelo pessoal, mouse.dev, estou combinando partes de OpenCode, Claude Code e Hermes para criar uma arquitetura de agente em nuvem que funciona bem também no mobile
    • Fui olhar o pi.dev e achei estranho ele ter só 7 issues abertas no GitHub
      Depois descobri que um bot estava simplesmente fechando todas automaticamente. Sem comentários
    • O Ollama Cloud também tem uma eficiência de custo muito boa. Em um mês de uso, só bati no limite de 5 horas uma vez, e isso foi rodando 8 agentes ao mesmo tempo por 2 horas
  • Mesmo se o preço do token for de só US$ 1 por 1 milhão de tokens, é surpreendentemente fácil gastar US$ 200 em tokens
    Por mais que eu faça as contas, um plano de codificação continua tendo melhor custo-benefício

  • Se desempenho no nível do Sonnet já for suficiente, isso com certeza parece um upgrade
    Mas o Sonnet comete erros demais, então sinto que otimizar custo nesse nível de modelo acaba não tendo muito valor. Ainda assim, é bom ter opções

    • Muita gente tem tido bons resultados usando Opus para design e qwen3.6 hospedado localmente para implementação
      Separar Opus para design e DeepSeek para implementação parece uma forma de reduzir bastante o custo. Eu, pessoalmente, evitaria a Anthropic por completo, mas entendo por que usam
    • Ainda não chegamos naquele ponto de saturação em que a inteligência de todos os modelos de ponta ficou parecida o bastante para escolher com base em outros fatores, como velocidade ou janela de contexto útil
      Seja para empresa ou para funcionário, não vejo muito motivo para não usar o melhor modelo disponível agora com a intensidade de raciocínio mais alta, ou a segunda mais alta. Não é barato, mas também não é absurdamente caro
    • O ponto central é que não basta um modelo bom; você precisa do melhor modelo
      Para construir uma boa arquitetura, é preciso ler muita especificação, código etc., então o volume de tokens de entrada e saída cresce bastante, e na correção de bugs acontece o mesmo se você incluir logs e Datadog
      Depois que você acha a direção, os patches passam a ser triviais e, a menos que esteja fazendo refatoração ou limpeza, a economia usando um modelo mais barato também é pequena
      Os testes ficam cada vez mais complexos. Só no opencode go já há GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro e DeepSeek V4 Flash
      Agora você tem que rodar todos esses modelos em escala, com bugs e tudo, e não sei se estou deixando passar alguma coisa aqui. Fico me perguntando qual é o uso real dos modelos mais baratos
    • Continuo reaprendendo essa lição. Vou bem com um modelo mais fraco por um tempo, depois jogo um problema complexo demais, experimento vários modelos, e no fim desisto e chamo o Opus 4.6 para resolver
    • Com o Sonnet eu não sinto isso de jeito nenhum. Se você tiver um Claude.md sólido, revisar periodicamente a saída e impor boas práticas de código com gates básicos de CI, quase nunca precisa trocar para o Opus
  • Dá a impressão de que pediram para a IA em modo one-shot fazer algo que normalmente se resumiria a configurar duas variáveis de ambiente

  • Fico me perguntando se o Claude Code é mesmo o melhor framework de execução para programação. Existe algum lugar que rode avaliações sobre isso?

    • Pela minha experiência pessoal, não. O mesmo modelo Opus funciona melhor em frameworks de execução de terceiros como Factory Droid ou Amp
      Já o Claude Code é a ferramenta mais subsidiada, tanto no Max voltado ao consumidor quanto nos descontos de tokens para empresas. Ele também faz otimizações agressivas de custo, como cache de tokens e redução da quantidade de raciocínio, e isso cobra seu preço em qualidade
  • Depois de usar DeepSeek V4 em vários CLIs, o Langcli foi o que mais combinou comigo. Em tarefas de programação, a taxa de acerto de cache passa de 95%
    Ele permite alternar de forma fluida e dinâmica entre DeepSeek V4 Flash, V4 Pro e outros modelos populares dentro do mesmo contexto, e também é 100% compatível com o Claude Code

  • Passei metade do dia fazendo CUDA e LLAMA rodarem numa 5070TI
    Consegui testar com o modo agente do Roo, fiz ele escrever um plano e depois parei, mas se eu tiver mais tempo pretendo continuar
    Como a DeepSeek pode ser auto-hospedada se você tiver dinheiro suficiente, a chance de um desligamento repentino parece menor, mas ainda assim uma solução local me anima mais
    Normalmente o que se precisa é trabalho braçal simples, não resolver problemas difíceis

  • Dá claramente a sensação de algo coescrito com vibe coding, e o preço também não bate

    • Daqui para frente, acho que vai ser muito difícil encontrar títulos que não tenham sido escritos com vibe coding
    • É vibe coding malfeito. A máquina consegue verificar detalhes com facilidade, então é para isso que ela deveria ser usada