8 pontos por GN⁺ 2026-03-20 | 3 comentários | Compartilhar no WhatsApp
  • Código relacionado à Anthropic e recursos de autenticação foram removidos do repositório OpenCode em resposta a uma solicitação legal
  • Os itens removidos incluem o arquivo de prompt de sistema da Anthropic, o plugin opencode-anthropic-auth, o fluxo OAuth do Claude Pro/Max e headers e dicas de UI relacionados à Anthropic
  • Durante as mudanças no código, o header User-Agent foi removido sem intenção, o que pode afetar requisições a provedores terceiros como OpenAI, Google e Azure
  • Na comunidade, seguem ativas as discussões sobre reação às medidas legais e desenvolvimento de plugins alternativos
  • A mudança chama atenção como um caso que expõe os limites legais e os problemas de interoperabilidade no ecossistema de integração de modelos de IA

Remoção de código relacionado à Anthropic

  • O Pull Request #18186 remove elementos ligados à Anthropic da base de código do OpenCode em resposta a solicitações legais (legal requests)
    • remoção do arquivo de prompt de sistema anthropic-20250930.txt
    • remoção do plugin embutido opencode-anthropic-auth@0.0.13
    • remoção da flag de header beta claude-code-20250219
    • remoção da opção de OAuth do Claude Pro/Max da UI de login
  • A documentação (providers.mdx) também passou a refletir que a autenticação Anthropic OAuth/Pro-Max foi proibida

Mudanças no código e impacto técnico

  • No arquivo llm.ts, durante a remoção do branch específico da Anthropic, o header User-Agent: opencode/${VERSION} deixou de ser incluído
    • Com isso, o header não é enviado em requisições para provedores não-Anthropic como OpenAI, Google e Azure
    • O bot de revisão apontou isso como um efeito colateral não intencional e mencionou a necessidade de restauração
  • Código relacionado também foi limpo em vários arquivos, como provider.ts, plugin/index.ts e cli/cmd/providers.ts

Reação da comunidade

  • Usuários do GitHub deixaram 173 reações de 👎 e 117 de 😕, mostrando predomínio de reação negativa
  • Alguns usuários demonstraram compreensão, dizendo que era uma “medida inevitável por restrições legais”, mas muitos a enxergaram como uma “ameaça ao ecossistema aberto
  • Membros da comunidade como cdbattags e ben-pr-p discutem o desenvolvimento e a distribuição de um plugin alternativo (opencode-claude-auth)

Issues relacionadas e discussões posteriores

  • Após a mudança, foram reportadas várias issues relacionadas a falhas na autenticação OAuth do Claude (#18267, #18315 etc.)
  • Alguns usuários compartilharam formas de usar modelos Anthropic indiretamente por meio de uma assinatura do Copilot
  • Também surgiram opiniões mencionando o conceito de “Code as Speech”, levantando a possibilidade de que a remoção do código represente uma violação da liberdade de expressão

Resumo das principais mudanças em arquivos

  • packages/opencode/src/session/llm.ts : simplificação da lógica de header, com ausência do User-Agent
  • packages/web/src/content/docs/providers.mdx : remoção incompleta de trechos relacionados ao Claude Pro/Max
  • packages/opencode/src/plugin/index.ts : remoção completa do plugin de autenticação da Anthropic
  • packages/opencode/src/provider/provider.ts : remoção do header beta da Anthropic
  • packages/opencode/src/session/prompt/anthropic-20250930.txt : arquivo completamente removido

Impacto dentro da comunidade

  • Em vários repositórios fork, surgiram movimentos para reverter imediatamente esse commit
  • Alguns usuários mencionaram “cancelar a assinatura” e “migrar para a OpenAI
  • A discussão como um todo se desenvolve em torno do conflito entre interoperabilidade entre plataformas de IA e controle legal

3 comentários

 
slowandsnow 2026-03-20

Pela reação, parece que desde o começo já sabiam que era algo que não deveriam fazer
, mas agora que estão barrando, a triste realidade é que de repente tentam pintar a Anthropic como mesquinha. Deviam é agradecer por não terem sido punidos.

 
grenade 2026-03-20

Será que é uma diferença cultural? Eu, pessoalmente, tenho dificuldade de entender algumas reações negativas a essa medida.
Desde o início, o plano Pro/Max era uma estratégia da Anthropic para buscar lock-in mesmo operando no prejuízo, então, se a Anthropic disse que não pode usar isso no opencode, então não pode mesmo. Acho que é uma violação clara dos ToS. Criticar a Anthropic sem nem considerar esse contexto, sinceramente, parece birra de quem acha caro, mas quer continuar usando o Claude.
Se quer usar o opencode, use via API; se quer usar o plano Pro, use o Claude Code. Se você não gosta da medida da Anthropic, então não use Claude (o codex permite auth até em produtos de terceiros e, por isso, eu também rodo opencode e openclaw com auth do codex).
A Anthropic também é uma empresa e, de todo modo, precisa gerar lucro, então eu respeito essa decisão. Claro que não quer dizer que eu esteja necessariamente certo, porque é uma questão que pode ser vista de formas diferentes dependendo da perspectiva. Ainda assim, acho triste que, nas discussões recentes do HN, por causa de um sentimento antiempresa, tenha aumentado bastante o número de pessoas que criticam empresas sem fundamento ou as enxergam de uma forma distorcida.

 
GN⁺ 2026-03-20
Comentários do Hacker News
  • Como muita gente ficou curiosa, vou explicar. A Anthropic tem dois produtos relacionados: a Claude API e o Claude Code
    A Claude API cobra por uso, e o Claude Code funciona por assinatura mensal com uma certa quantidade de tokens incluída. Considerando a mesma base de tokens, a assinatura do Claude Code sai bem mais barata
    O problema é que produtos de terceiros como OpenClaw e OpenCode usaram a API interna do Claude Code. A Anthropic deixou claro que eles devem usar apenas a Claude API oficial
    O OpenCode oferecia um “plugin” que permitia ao usuário conectar sua assinatura do Claude Code, mas, depois que a Anthropic ameaçou tomar medidas legais, removeu esse recurso no PR

    • Explicação bem organizada. O ponto central é um mal-entendido sobre os termos da licença
      A assinatura do Claude Code só pode ser usada dentro daquele ambiente, e utilizá-la em outros produtos (como o OpenCode) viola os ToS. A Anthropic proibiu isso explicitamente, e a violação pode levar a medidas legais
      Alguns usuários se confundem achando que “se eu assinei, posso usar onde quiser”, mas, na prática, isso equivale a abusar de um custo de API subsidiado
    • Não é uma “assinatura do Claude Code”, e sim, mais precisamente, uma assinatura do serviço Claude como um todo. Não existe uma assinatura separada só para código
    • O Claude Code pode ser um serviço subsidiado, mas também há riscos como distillation risk. Se vários agentes externos chamarem o modelo, os dados se dispersam e a eficiência de cache cai. O motivo de a Anthropic insistir no próprio cliente é manter a qualidade dos dados e a eficiência de cache
    • Eu achava que a assinatura existia para aumentar o uso do Opus, então não entendo por que a Anthropic diferencia os usos da API e do Claude Code. No fim, há um limite de tokens, então o custo de processamento deveria ser o mesmo
  • Acho difícil entender por que a Anthropic impõe esse tipo de restrição. Isso só aumenta o risco de PR e acumula insatisfação dos usuários
    Provavelmente o Claude Code dá prejuízo, então internamente eles colocam restrições para manter controle de roteamento de modelos ou observação dos prompts dos usuários (telemetry)
    Pessoalmente, acho a Anthropic pouco amigável ao usuário. O OpenCode é excelente, mas o Claude Code foi decepcionante. Por isso mudei para a assinatura do Codex

    • Isso é parecido com o caso antigo do Google GmailFS. Quando abusaram do armazenamento gratuito do Gmail, o Google alterou os ToS e bloqueou o uso
      A Anthropic está na mesma situação. É uma estratégia de loss leader para expandir o ecossistema aceitando perdas, mas, se terceiros abusam disso, eles inevitavelmente precisam bloquear
      Referência: GmailFS, Gmail Drive
    • Se o OpenCode for usado programaticamente, uma conta Claude Code de US$ 200 pode virar um serviço barato de API do Opus. No fim, é só uma forma de evitar custos
    • Quando existe uma UX alternativa, o usuário pode migrar facilmente para outro modelo. Todo plano ilimitado tem cláusulas antiabuso. Não é um problema exclusivo da Anthropic
    • Os dados de telemetria coletados no Claude Code provavelmente são parte central da melhoria do modelo. Por exemplo, ações de aprovação de código e commits do usuário viram sinais de treinamento muito fortes. Apps de terceiros não conseguem coletar esse tipo de dado
    • Se, em outros harnesses, só o Opus for usado intensivamente, fica difícil controlar os custos. O Claude Code distribui carga com Haiku, Sonnet etc., mas apps externos não fazem isso
  • A relação da Anthropic com a comunidade open source está piorando ao ameaçar até o OpenClaw
    Discussão relacionada: Anthropic Explicitly Blocking OpenCode

    • Não é tanto uma questão de open source, e sim de modelo de negócios. O Claude Code é otimizado com eficiência de cache e dados de uso, e clientes de terceiros quebram isso
    • A posição da Anthropic é consistente. O plano de assinatura é apenas para clientes 1st-party, e todo o resto é cobrado por token
    • O Dario já negou o valor de modelos open-weight. Isso parece uma estratégia baseada em medo. Dá a impressão de que ele vê a redução do moat tecnológico
    • O caso do Clawdbot entra em obrigação de defesa de marca registrada. Se não houver reação legal, eles podem perder os direitos
    • Também há uma visão cética: “se open source pode ser adquirido e manipulado por grandes empresas, isso ainda é open source de verdade?”
  • Parece que a equipe do OpenCode reagiu emocionalmente ao bloqueio de autenticação da Anthropic. No fim, isso é basicamente uma estratégia de lock-in baseada em subsídio, e faz sentido do ponto de vista de negócios

    • Houve comentário perguntando a que reação isso se referia
    • A mudança real no código foi simplesmente remover a opção de usar a chave da API da Anthropic
    • Algumas pessoas também questionaram se esse “subsídio de uso” realmente existe. A alegação é que o custo de hardware não deve ser tão alto assim
  • Em vez de “medida legal”, isso parece mais um pedido de alteração acompanhado de ameaça de ação legal

    • Em geral, antes de um processo é normal haver uma etapa de negociação ou aviso
  • Nos EUA, código também pode ser protegido como liberdade de expressão (Code as Speech), então há dúvidas se é possível ameaçar legalmente até desenvolvedores que só distribuíram código open source
    Referência: Code as Speech

  • Empresas traçam essa linha para garantir controle no mercado. A Anthropic quer distinguir entre “produtos feitos sobre nós” e “produtos ao nosso redor”
    Isso parece mais uma definição de fronteiras do serviço do que uma tentativa de reprimir o open source

  • Acho que essa medida da Anthropic é uma decisão ruim que limita a liberdade do usuário. A OpenAI e modelos chineses permitem integração com apps de terceiros
    Por isso também migrei para modelos Codex e estou satisfeito. Agora torço pela OpenAI

  • Eu estava me perguntando por que o OpenCode se integrou tanto ao Claude Code. Se existe um SDK, bastaria usar isso, mas talvez fosse por desempenho ou restrições de acesso
    Eu também estou criando um wrapper com o SDK do CC, então isso me preocupa. Fico receoso de que o meu caso também seja tratado como o mesmo problema

    • O problema não é o SDK, e sim a forma de uso da API. No fim, a questão central é o abuso de tokens subsidiados. Se não fosse isso, o OpenCode já teria parado de tentar contornar a limitação
  • Muita gente diz “não é comigo que vão processar, então tanto faz”, mas, no fim, isso é uma disputa sobre o peso das leis de propriedade intelectual
    Se um app instalado pelo usuário tiver esse tipo de recurso, impedir o abuso também é responsabilidade do desenvolvedor
    Isso é um jogo de gato e rato parecido com o dos clientes alternativos do YouTube