15 pontos por GN⁺ 8 일 전 | 9 comentários | Compartilhar no WhatsApp
  • Um responsável da Anthropic informou que o uso do Claude CLI no estilo OpenClaw voltou a ser permitido
  • Há suporte conjunto para chave de API da Anthropic e reutilização do Claude CLI, e perfis de token Anthropic já existentes continuam sendo aceitos na execução
  • O backend do Claude CLI volta a ser tratado como uma forma de integração permitida e, até o anúncio de uma nova política, o uso de claude -p também continua permitido
  • Os modelos Claude 4.6 aplicam adaptive thinking por padrão quando não há configuração explícita de thinking, com possibilidade de sobrescrever via /think:<level> ou parâmetro do modelo
  • O toggle /fast injeta service_tier apenas em requisições que vão diretamente para api.anthropic.com; se passar por proxy ou gateway, a mudança de tier não é aplicada
  • Também há suporte a prompt caching e janela de contexto de 1M, mas o cache é exclusivo da API e o contexto de 1M exige ativação explícita e permissão de uso de long-context; em autenticação existente sk-ant-oat-*, o cabeçalho beta é omitido

Formas de suporte da Anthropic

  • Há suporte conjunto para API e Claude CLI como caminhos de acesso à família de modelos Claude, e no OpenClaw é possível usar tanto chave de API da Anthropic quanto reutilização do Claude CLI
    • Perfis de token Anthropic já configurados também continuam sendo aceitos na execução
  • Chave de API da Anthropic

    • Caminho adequado para acesso padrão à API e cobrança baseada em uso
    • A chave de API pode ser criada no Anthropic Console
    • No exemplo de configuração do CLI, é possível selecionar Anthropic API key em openclaw onboard
    • Há suporte ao modo não interativo com openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
    • No exemplo de snippet de configuração, usa-se a variável de ambiente ANTHROPIC_API_KEY e o modelo padrão anthropic/claude-opus-4-6

Valor padrão de Thinking

  • Os modelos Claude 4.6 aplicam adaptive thinking como padrão no OpenClaw quando não há nível de thinking explicitamente definido
  • É possível sobrescrever por mensagem com /think:<level> ou com o parâmetro de modelo agents.defaults.models["anthropic/<model>"].params.thinking
  • São fornecidos links relacionados para Adaptive thinking e Extended thinking

Fast mode

  • O toggle compartilhado /fast do OpenClaw também funciona para tráfego público direto da Anthropic enviado a api.anthropic.com
    • Inclui tanto autenticação por chave de API quanto requisições autenticadas por OAuth
  • /fast on é mapeado para service_tier: "auto"
  • /fast off é mapeado para service_tier: "standard_only"
  • No exemplo de valor padrão de configuração, é usado params.fastMode: true para o modelo anthropic/claude-sonnet-4-6
  • Limitações

    • O OpenClaw injeta Anthropic service tier apenas em requisições diretas para api.anthropic.com
    • Se requisições anthropic/* forem desviadas por proxy ou gateway, /fast não altera service_tier
    • Se houver parâmetro explícito de modelo serviceTier ou service_tier, ele tem prioridade sobre o valor padrão de /fast
    • A Anthropic registra o tier efetivamente aplicado em usage.service_tier na resposta
    • Em contas sem Priority Tier capacity, service_tier: "auto" ainda pode ser interpretado como standard

Prompt caching

  • O OpenClaw oferece suporte ao recurso prompt caching da Anthropic
  • Esse recurso é exclusivo da API, e a autenticação com token Anthropic existente não reflete a configuração de cache
  • Configuração

    • Usa-se o parâmetro cacheRetention na configuração do modelo
    • none desativa o cache
    • short define cache de 5 minutos
    • long define cache estendido de 1 hora
    • No exemplo de configuração, usa-se params.cacheRetention: "long" no modelo anthropic/claude-opus-4-6
  • Valores padrão

    • Ao usar autenticação por chave de API da Anthropic, todos os modelos Anthropic recebem automaticamente cacheRetention: "short"
    • Esse valor padrão pode ser sobrescrito definindo cacheRetention explicitamente
  • Sobrescrita por agente

    • Os parâmetros em nível de modelo servem como base, e agentes específicos podem ser sobrescritos individualmente em agents.list[].params
    • No exemplo, research usa a configuração padrão e alerts aplica cacheRetention: "none"
    • A ordem de mesclagem dos parâmetros de cache é agents.defaults.models["provider/model"].params seguido de agents.list[].params
    • Mesmo usando o mesmo modelo, um agente pode manter cache de longo prazo enquanto outro pode desativar o cache
    • Como exemplo de motivo para desativar o cache, menciona-se evitar custo de escrita em tráfego de burst ou baixa reutilização
  • Referência sobre Bedrock Claude

    • Os modelos Anthropic Claude no Bedrock amazon-bedrock/*anthropic.claude* oferecem suporte ao envio de cacheRetention quando configurado
    • Modelos Bedrock não Anthropic são forçados para cacheRetention: "none" na execução
    • O valor padrão inteligente baseado em chave de API da Anthropic também aplica cacheRetention: "short" a referências de modelos Claude-on-Bedrock quando não houver valor explícito

Janela de contexto de 1M

  • A janela de contexto de 1M da Anthropic é um recurso beta restrito e, no OpenClaw, pode ser ativada com params.context1m: true para cada modelo Opus/Sonnet compatível
  • No exemplo de configuração, usa-se params.context1m: true para o modelo anthropic/claude-opus-4-6
  • O OpenClaw mapeia isso para o cabeçalho anthropic-beta: context-1m-2025-08-07 na requisição à Anthropic
  • Esse recurso é ativado apenas quando params.context1m estiver explicitamente como true para o modelo em questão
  • Como condição de uso, a Anthropic precisa permitir long-context usage para essa credencial
  • Atualmente, a Anthropic rejeita requisições beta context-1m-* quando se usa autenticação com token Anthropic existente sk-ant-oat-*
  • Se context1m: true for definido no modo de autenticação existente, o OpenClaw registra um log de aviso, ignora o cabeçalho beta de context1m e usa a janela de contexto padrão no lugar
    • O beta de OAuth necessário é mantido

Backend do Claude CLI

  • O OpenClaw oferece suporte ao backend empacotado claude-cli da Anthropic
  • Um funcionário da Anthropic informou que essa forma de uso voltou a ser permitida
  • Com isso, até que a Anthropic anuncie uma nova política, o OpenClaw trata a reutilização do Claude CLI e o uso de claude -p como formas de integração permitidas
  • Para host de gateway sempre ativo e controle explícito de cobrança no lado do servidor, a chave de API da Anthropic é o caminho operacional mais claro
  • Para detalhes de configuração e execução, consulte o caminho /gateway/cli-backends

Observações

  • A documentação pública de Claude Code da Anthropic ainda documenta o uso direto do CLI, como claude -p
  • Um funcionário da Anthropic informou que o uso do Claude CLI no estilo OpenClaw voltou a ser permitido e, até que a Anthropic anuncie uma nova mudança de política, isso é tratado como orientação confirmada
  • O OpenClaw também continua oferecendo Anthropic setup-token como caminho de autenticação por token suportado
  • No entanto, quando disponível, o OpenClaw passa a priorizar reutilização do Claude CLI e claude -p
  • Para detalhes de autenticação e regras de reutilização, consulte o caminho /concepts/oauth

Solução de problemas

  • 401 errors / token suddenly invalid

    • A autenticação por token Anthropic pode expirar ou ser revogada
    • Para novas configurações, recomenda-se migrar para chave de API da Anthropic
  • No API key found for provider “anthropic”

    • A autenticação é aplicada por agente
    • Novos agentes não herdam a chave do agente principal
    • É necessário executar o onboarding novamente para esse agente ou definir a chave de API no host do gateway e depois verificar com openclaw models status
  • No credentials found for profile anthropic:default

    • É possível verificar qual perfil de autenticação está ativo com openclaw models status
    • É necessário executar novamente o onboarding ou definir a chave de API no caminho desse perfil
  • No available auth profile (all in cooldown/unavailable)

    • É possível verificar auth.unusableProfiles em openclaw models status --json
    • O cooldown de rate limit da Anthropic pode ser por modelo, então mesmo que o modelo atual esteja em cooldown, outro modelo Anthropic da mesma família ainda pode estar disponível
    • É necessário adicionar outro perfil Anthropic ou aguardar o fim do cooldown
    • Também são fornecidos os caminhos adicionais /gateway/troubleshooting e /help/faq

9 comentários

 
ceruns 7 일 전

Depois que passei a conseguir usar o modelo local gemma4 31b no Codex com o Codex (até com o cuidado de verificar automaticamente o multi-turn!), cancelei todas as outras assinaturas além do ChatGPT Pro. Juntando o codex-app-linux com esses dois, ainda sobra cota de uso mesmo rodando tarefas no máximo de paralelismo que consigo perceber.

 
woodev 7 일 전

Poderia informar um pouco das especificações de hardware!
Rodando na 4090 ele até é inteligente, mas para uso de longo prazo achei insuficiente.

 
beoks 7 일 전

Eu também estou tentando rodar o gemma4 localmente. Você poderia me dizer mais ou menos qual é a sua configuração de hardware?

 
ingwannu 7 일 전

Sinceramente, é constrangedor demais...
Só parece que estão fazendo isso temporariamente porque tentaram impedir usuários Pro de usar o Claude Code e a reação do público não foi boa..

 
jimmy2056 7 일 전

Mesmo assim, parece melhor observar por enquanto do que acabar usando errado à toa e ter a conta suspensa.

 
hmmhmmhm 8 일 전

Fiquei quebrando a cabeça com o uso da chave da API CC OAuth e acabei simplesmente me fixando no Codex antigo...

 
xguru 8 일 전

Na real, eu também ultimamente acabei me fixando no Codex... o Claude consome tokens rápido demais.

 
GN⁺ 8 일 전
Comentários do Hacker News
  • Sou o Peter, do OpenClaw. O Boris, do Claude Code, disse publicamente no Twitter que o uso em estilo CLI era permitido, então confiei nessa orientação e investi na implementação. Também alterei para desativar por padrão recursos de tokens excessivos, como heartbeat, ao usar a CLI, mas na prática a Anthropic está bloqueando parte do prompt de sistema, então a comunicação pública e o comportamento atual não batem. A fala relacionada pode ser vista aqui. Parece que, quando as pessoas começaram a contornar isso mudando levemente o nome, o classificador também mudou, mas eu não tenho intenção de entrar nesse tipo de jogo de contorno, então fiquei num estado ambíguo em que, em teoria, dá, mas na prática não funciona

    • Mesmo fora do OpenClaw, muita gente confiou nesse Tweet e construiu fluxos de trabalho bem profundos em cima de claude -p. Mas, com a introdução da nova flag --bare, parece preocupante que esteja vindo um rug pull que, na prática, empurra o -p para fora para usuários ilimitados. A documentação também diz que --bare é o modo recomendado para scripts e chamadas via SDK, e que no futuro será o padrão do -p, então espero ter entendido errado ou que haja uma explicação clara. A documentação é a headless docs
    • Já que estamos falando do escopo permitido, também tenho curiosidade sobre o escopo de uso da cota do Codex da OpenAI. Entendo que o uso no OpenClaw é permitido, mas não encontrei resposta sobre se também é permitido deixar usuários consumirem a própria cota do Codex em outros harnesses de código ou dentro de apps pagos. Para players pequenos é difícil subsidiar custo de tokens, então, se essa política abrir, os casos de uso aumentariam bastante, mas também parece que isso fica intencionalmente nebuloso por causa da natureza do modelo de assinatura, o que é ainda mais frustrante
    • Eu acho que bastaria aplicar um simples rate limit ao token OAuth. O princípio também é simples: assinatura é para uso humano, em escala humana e compreensível; API key é para outras automações. Acho que a Anthropic deveria limitar o uso mecânico, mas ainda permitir que as pessoas usem o próprio token OAuth para criar fluxos com claude -p ou fluxos melhores baseados em SDK
    • Também entendo que a posição da Anthropic é difícil. Fazendo uma analogia, é como se a Waymo operasse um plano de assinatura subsidiado e as pessoas começassem a reservar carros sem passageiro com timer e a usá-los de um jeito diferente do pretendido originalmente. Mandar o carro buscar compras de vez em quando parece ok, mas fazê-lo comprar um sorvete todo dia no mesmo horário fica numa fronteira ambígua. O problema é que, se você definir o critério com clareza, as pessoas vão evitar exatamente aquela formulação e explorar a viabilidade econômica; por outro lado, também não parece certo simplesmente acabar com o plano criado para usuários legítimos
    • Parece que agora eles estão tentando corrigir o rumo, mas sinto que já perderam muita confiança. Além disso, considerando até os novos limites reduzidos, fico na dúvida se ainda vale a pena continuar usando no OpenClaw
  • A situação atual realmente me parece um lamaçal turvo. A Anthropic precisa deixar claro o que é suportado e o que não é, dependendo de haver assinatura ou não, e até lá é difícil para o usuário entender como deve usar o produto. Eu nem uso OpenClaw nem produtos semelhantes hoje, mas pelo menos queria saber o que pode e o que não pode, e no momento acho isso quase impossível

    • Vendo a Anthropic mudar semanalmente o que se obtém com a assinatura, eu não tenho vontade de gastar mais do que um nível de licença hobby. O produto pode ser ótimo, mas a sensação é que depende da hora em que você usa e de como a empresa decide interpretar isso naquele momento. Por isso, o fato de existirem vários modelos de pesos abertos que impõem um teto para comportamentos ruins acaba sendo reconfortante
    • Eu quero usar, com uma licença do Claude Code, um custom harness que eu possa estender, ou conectar um harness que eu mesmo criei, e, se possível, também reduzir custo de tokens. Acho que a Anthropic precisa definir critérios para o próximo modelo usar menos tokens ou ter custo operacional menor. Se o throughput for parecido, eu aceito até que fique um pouco mais lento, desde que o custo caia e eu possa usar junto com o harness que construí
    • O que me preocupa é a comunicação ruim e as constantes mudanças de discurso. Um dos meus fluxos principais usa hook scripts para rotear certas tarefas entre vários modelos, e ninguém sabe se isso também será proibido no futuro. Como a Anthropic não consegue dar uma explicação consistente, fica difícil investir no ecossistema
    • Fico até um pouco surpreso com o espanto das pessoas. Como já vimos em casos como a API do Twitter, APIs costumam ficar abertas enquanto ajudam a resolver problemas imediatos da empresa; depois, quando a empresa cria por conta própria funcionalidades que as pessoas realmente usam, passa a bloquear usos com cara de cliente concorrente
    • Como contraponto a vibe coding, me veio vibe product. Hoje em dia as coisas aparecem e somem rápido demais, então perdi muito daquela expectativa que existia antes
  • Acho que o ponto principal é que funcionários da Anthropic deram explicações conflitantes no Twitter, inclusive com correções, o que gerou ainda mais confusão. Hoje dizem que o uso do Claude CLI no estilo OpenClaw é ok, amanhã isso pode ser retirado de novo com uma atualização de política. Em relação ao Claude Code, a Anthropic mostrou ser difícil de confiar, e acho que, para preservar a saúde mental, é melhor migrar para outro provedor

    • Aquele erro de digitação que pareceu não ser erro, keep your insanity, foi até engraçado de tão preciso
    • Não entendo por que continuam fazendo esses anúncios no Twitter. Política deveria ser anunciada por post oficial no blog, e também deveria ficar explícito como um harness alternativo deve funcionar. Do jeito atual, parece muito pouco profissional
    • Também acho estranha essa forma de divulgar. Não entendo por que é o OpenClaw, e não a Anthropic, que está avisando isso, e até a Anthropic falar diretamente fica difícil confiar de verdade
    • Pelo que vejo, o anúncio mais recente da Anthropic dizia que usuários com assinatura teriam cobrança adicional ao usar OpenClaw, não que isso seria proibido. E o motivo da mudança alguns dias depois provavelmente foi que, em vez de bloquear imediatamente como antes o uso direto do token OAuth em harnesses de terceiros, decidiram transformar tanto esse uso quanto o uso via claude -p em cobrança adicional. Então não sinto que esta página contradiga aquele anúncio
    • Eu comparo trocar de provedor de serviço com a época em que eu alternava entre Uber One e Lyft Pink. Sempre trocava quando o atendimento ao cliente era péssimo, mas no fim concluí que é melhor escolher um mal conhecido e se adaptar às características dele. Hoje continuo no Claude porque o impacto do problema do OpenClaw é pequeno para mim e por causa do desconforto com a questão Hegseth-Altman DoD, mas, sinceramente, não acho que Google, Anthropic e OpenAI sejam especialmente exemplares em comunicação sobre IA e atendimento ao cliente
  • Essa mudança já voltou há 2 semanas em um commit, e isso também foi 3 dias depois de a Anthropic dizer que o OpenClaw exigia uso adicional. Vendo essa sequência, fica difícil levar a situação muito a sério, e também é estranho não haver nem um posicionamento oficial nem sequer um Tweet. Para outro contexto, veja este link no HN

    • Acho que a confusão vem do fato de existirem duas formas de usar credenciais do Claude Code. Uma é pegar as credenciais OAuth e construir um agente próprio; isso não é permitido. A outra é executar diretamente o app agente dentro de uma sessão oficial do Claude Code; isso é permitido. O que o OpenClaw chama de Open-Claw style CLI usage é mais próximo do segundo caso, e entendo que usar credenciais OAuth fora do Claude Code CLI gera cobrança adicional com base em preço de API, além da assinatura existente
    • Também sinto que isso é, em grande parte, consistente com o anúncio recente da Anthropic. Em nenhum lugar aqui está escrito que não há cobrança adicional; o ponto central parece ser que não houve proibição, e sim uma mudança para colocar tanto o uso direto do token OAuth em harnesses de terceiros quanto o uso de claude -p sob cobrança adicional
    • Sobre não haver anúncio oficial nem Tweet, metade brincando e metade sério: release notes e comunicados hoje em dia parecem até um agentic anti-pattern. Dá quase para ironizar que, se você está acompanhando isso, então está fazendo agentic errado
    • Também acho que essa reação parece uma amplificação típica de FUD. Interpretações negativas são ampliadas, e sinais positivos acabam soterrados
  • A Anthropic parece estar queimando o goodwill acumulado ao aumentar preços, reduzir limites e manter políticas ambíguas

    • Essas mudanças parecem uma técnica de aumentar a temperatura aos poucos, tipo cozinhar o sapo
    • Por outro lado, para um serviço de LLM continuar existindo, no fim o provedor precisa ganhar mais dinheiro do que gasta com hospedagem. E ainda estamos bem longe desse ponto
    • Nessas horas bate até aquele cinismo de que temos que pensar também nos acionistas
    • Desse jeito, parece até que estão empurrando as pessoas para clones chineses que a Anthropic vê como atores maliciosos
    • Por outro lado, isso também pode ser a empresa seguindo exatamente o problema de sustentabilidade de que o Hacker News sempre falou. Diziam que IA é útil, mas a sustentabilidade é incerta, e agora os preços sobem e os tokens diminuem, então todos ficam irritados, o que é meio irônico
  • Como isso aconteceu logo depois do acordo com a Amazon, fico pensando se no fim não era mesmo um problema de restrição de compute. De qualquer forma, no plano mensal de 20 dólares do Codex que eu testei, o limite era tão baixo que o agente mal conseguia fazer alguma coisa antes de passar para outro agente. Sem um anúncio oficial da Anthropic, vou observar com cautela por um tempo porque tenho medo de perder minha conta Max de 200 dólares por mês, que valorizo, usando dessa forma

    • Minha experiência foi bem diferente. Comecei com Claude web e Opus 4.7, depois emendei com Claude Code, e em algo entre 6 e 10 prompts já tinha consumido dois ciclos inteiros de quota. Já com pi.dev e codex trabalhei por horas e usei cerca de 50% da assinatura Codex Pro. Então sinto que a diferença no padrão de consumo é bem grande
    • Se você precisa de uso pesado, talvez valha considerar Z.ai também. O GLM está bem bom agora e, embora a API às vezes seja instável, antes eu usava principalmente GLM e deixava Claude Pro só para revisão e organização; agora acabei ficando só no GLM. O Claude Max também não é um custo-benefício terrível, mas para mim é mais do que preciso e minha boa vontade com a Anthropic está diminuindo
    • Pelo que lembro, desde o início a Anthropic disse que isso era um problema de restrição de compute e que o OpenClaw gerava um volume de uso muito acima do que conseguiam suportar
    • Acho o GPT-5.4 realmente faminto por tokens. Mesmo sendo lacônico, o gpt-5.3 codex parecia muito inteligente para codificação e planejamento e consumia bem menos tokens
  • Pelo meu entendimento, você pode usar credenciais OAuth desde que esteja usando bibliotecas ou ferramentas da Anthropic. Por exemplo, dá para conectar OAuth ao Claude Agent SDK e prototipar vários agentes com Claude Code dentro de um custo mensal previsível, o que é especialmente atraente para transformar skills em ferramentas standalone ou apps. De forma mais complexa, também dá para rodar Claude Code dentro de um tmux trocando entrada e saída, e o MCP Channels também é interessante, porque coloca um servidor MCP entre o app e a instância em execução do Claude Code e permite comunicação bidirecional. É mais lento, mas é interessante porque possibilita algo como sair temporariamente para uma GUI em tarefas mais fáceis sem perder o contexto da sessão CLI e depois voltar

    • Na verdade, o Claude Code CLI nem precisa necessariamente de tmux. A própria CLI já suporta entrada e saída em streaming JSON, então dá para controlá-la por pipes em stdin e stdout. Estou usando isso agora no ask e tem funcionado muito bem
  • Na última semana, meu assistente auxiliar do OpenClaw, usando Claude, perdeu a personalidade e passou a não conseguir mais fazer coisas que antes fazia bem. O uso chegou a acumular uns 28 dólares, mas depois disso não consumiu mais nada, então não sei se havia outro problema, porém o fenômeno continuou. No fim me cansei e usei um script de migração para levar o histórico de conversas e a personalidade para a config do claude code, e, graças ao novo recurso de remote exec, recuperei a maior parte da funcionalidade anterior sem precisar assumir a instabilidade das ferramentas experimentais mais recentes, como o OpenClaw. Minha impressão é que a Anthropic planejou introduzir atrito suficiente no espaço dos usuários hobby para acabar empurrando-os para a solução proprietária da própria empresa e, de todo modo, essa acaba parecendo a opção mais segura

    • Pelo que entendi, o motivo de o OpenClaw ter sido proibido era a carga sobre o sistema. Ferramentas de terceiros já eram ilegais antes, e tecnicamente ainda são, mas agora parecem estar num estado de tolerância ambígua com cobrança por uso adicional. Ainda assim, não me parece que adicionar um prompt de sistema proprietário de 50 mil caracteres, pouco relevante, vá melhorar a situação. No fim, fico curioso se a Anthropic veria com bons olhos alguém recriando o OpenClaw com claude -p prompt e cron, e talvez eles nem liguem porque o número de pessoas capazes de fazer isso deve ser estatisticamente irrelevante. Para contexto, vale ver também este post no HN
    • Se o intermediário entre o usuário e eu foi adquirido por um concorrente, parece natural querer reduzir essa dependência. Tem algo de estranho, como se a Apple vendesse iPhone em loja da Microsoft
    • Fiquei curioso sobre a configuração concreta da sua implementação do OpenClaw baseada em Claude Code na prática
  • O OpenClaw dizer que a Anthropic disse que está tudo bem... realmente uma situação cristalinamente clara, sem dúvida

  • No geral, estou satisfeito com a combinação de Claude Code, Opus e plano Max, mas ainda me incomodam os momentos em que não funciona, o custo e o receio de banimento da conta. Então fico curioso se existe alguma combinação alternativa que entregue experiência parecida ou melhor por menos dinheiro. Vejo muita gente falando bem de pi.dev e OpenCode, e quando conectei Mimo V2 pro ao OpenCode achei bem bom. Antes também usei Qwen CLI e Gemini CLI, antes de o gratuito ser bloqueado, e já usei Z.ai com OpenCode. Também vejo gente dizendo que usa Opus para planejamento e passa tarefas menos importantes para modelos mais baratos, mas não gosto muito de cobrança por uso porque imagino que no fim não saia mais barato. Trabalho principalmente com backend em Python e frontend em TypeScript, hospedo na Hetzner, uso bastante Docker e, quando preciso, k3s, então queria receber indicações de configurações práticas que funcionem bem nesse ambiente

 
ajh508 7 일 전

Se não tiver cache de prompt, parece que os tokens vão simplesmente derreter.