Anthropic - OpenClaw: voltou a poder ser usado
(docs.openclaw.ai)- Um responsável da Anthropic informou que o uso do Claude CLI no estilo OpenClaw voltou a ser permitido
- Há suporte conjunto para chave de API da Anthropic e reutilização do Claude CLI, e perfis de token Anthropic já existentes continuam sendo aceitos na execução
- O backend do Claude CLI volta a ser tratado como uma forma de integração permitida e, até o anúncio de uma nova política, o uso de
claude -ptambém continua permitido - Os modelos Claude 4.6 aplicam adaptive thinking por padrão quando não há configuração explícita de thinking, com possibilidade de sobrescrever via
/think:<level>ou parâmetro do modelo - O toggle
/fastinjeta service_tier apenas em requisições que vão diretamente paraapi.anthropic.com; se passar por proxy ou gateway, a mudança de tier não é aplicada - Também há suporte a prompt caching e janela de contexto de 1M, mas o cache é exclusivo da API e o contexto de 1M exige ativação explícita e permissão de uso de long-context; em autenticação existente
sk-ant-oat-*, o cabeçalho beta é omitido
Formas de suporte da Anthropic
- Há suporte conjunto para API e Claude CLI como caminhos de acesso à família de modelos Claude, e no OpenClaw é possível usar tanto chave de API da Anthropic quanto reutilização do Claude CLI
- Perfis de token Anthropic já configurados também continuam sendo aceitos na execução
-
Chave de API da Anthropic
- Caminho adequado para acesso padrão à API e cobrança baseada em uso
- A chave de API pode ser criada no Anthropic Console
- No exemplo de configuração do CLI, é possível selecionar Anthropic API key em
openclaw onboard - Há suporte ao modo não interativo com
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY" - No exemplo de snippet de configuração, usa-se a variável de ambiente
ANTHROPIC_API_KEYe o modelo padrãoanthropic/claude-opus-4-6
Valor padrão de Thinking
- Os modelos Claude 4.6 aplicam adaptive thinking como padrão no OpenClaw quando não há nível de thinking explicitamente definido
- É possível sobrescrever por mensagem com
/think:<level>ou com o parâmetro de modeloagents.defaults.models["anthropic/<model>"].params.thinking - São fornecidos links relacionados para Adaptive thinking e Extended thinking
Fast mode
- O toggle compartilhado
/fastdo OpenClaw também funciona para tráfego público direto da Anthropic enviado aapi.anthropic.com- Inclui tanto autenticação por chave de API quanto requisições autenticadas por OAuth
/fast oné mapeado paraservice_tier: "auto"/fast offé mapeado paraservice_tier: "standard_only"- No exemplo de valor padrão de configuração, é usado
params.fastMode: truepara o modeloanthropic/claude-sonnet-4-6 -
Limitações
- O OpenClaw injeta Anthropic service tier apenas em requisições diretas para
api.anthropic.com - Se requisições
anthropic/*forem desviadas por proxy ou gateway,/fastnão alteraservice_tier - Se houver parâmetro explícito de modelo
serviceTierouservice_tier, ele tem prioridade sobre o valor padrão de/fast - A Anthropic registra o tier efetivamente aplicado em
usage.service_tierna resposta - Em contas sem Priority Tier capacity,
service_tier: "auto"ainda pode ser interpretado comostandard
- O OpenClaw injeta Anthropic service tier apenas em requisições diretas para
Prompt caching
- O OpenClaw oferece suporte ao recurso prompt caching da Anthropic
- Esse recurso é exclusivo da API, e a autenticação com token Anthropic existente não reflete a configuração de cache
-
Configuração
- Usa-se o parâmetro
cacheRetentionna configuração do modelo nonedesativa o cacheshortdefine cache de 5 minutoslongdefine cache estendido de 1 hora- No exemplo de configuração, usa-se
params.cacheRetention: "long"no modeloanthropic/claude-opus-4-6
- Usa-se o parâmetro
-
Valores padrão
- Ao usar autenticação por chave de API da Anthropic, todos os modelos Anthropic recebem automaticamente
cacheRetention: "short" - Esse valor padrão pode ser sobrescrito definindo
cacheRetentionexplicitamente
- Ao usar autenticação por chave de API da Anthropic, todos os modelos Anthropic recebem automaticamente
-
Sobrescrita por agente
- Os parâmetros em nível de modelo servem como base, e agentes específicos podem ser sobrescritos individualmente em
agents.list[].params - No exemplo,
researchusa a configuração padrão ealertsaplicacacheRetention: "none" - A ordem de mesclagem dos parâmetros de cache é
agents.defaults.models["provider/model"].paramsseguido deagents.list[].params - Mesmo usando o mesmo modelo, um agente pode manter cache de longo prazo enquanto outro pode desativar o cache
- Como exemplo de motivo para desativar o cache, menciona-se evitar custo de escrita em tráfego de burst ou baixa reutilização
- Os parâmetros em nível de modelo servem como base, e agentes específicos podem ser sobrescritos individualmente em
-
Referência sobre Bedrock Claude
- Os modelos Anthropic Claude no Bedrock
amazon-bedrock/*anthropic.claude*oferecem suporte ao envio decacheRetentionquando configurado - Modelos Bedrock não Anthropic são forçados para
cacheRetention: "none"na execução - O valor padrão inteligente baseado em chave de API da Anthropic também aplica
cacheRetention: "short"a referências de modelos Claude-on-Bedrock quando não houver valor explícito
- Os modelos Anthropic Claude no Bedrock
Janela de contexto de 1M
- A janela de contexto de 1M da Anthropic é um recurso beta restrito e, no OpenClaw, pode ser ativada com
params.context1m: truepara cada modelo Opus/Sonnet compatível - No exemplo de configuração, usa-se
params.context1m: truepara o modeloanthropic/claude-opus-4-6 - O OpenClaw mapeia isso para o cabeçalho
anthropic-beta: context-1m-2025-08-07na requisição à Anthropic - Esse recurso é ativado apenas quando
params.context1mestiver explicitamente comotruepara o modelo em questão - Como condição de uso, a Anthropic precisa permitir long-context usage para essa credencial
- Atualmente, a Anthropic rejeita requisições beta
context-1m-*quando se usa autenticação com token Anthropic existentesk-ant-oat-* - Se
context1m: truefor definido no modo de autenticação existente, o OpenClaw registra um log de aviso, ignora o cabeçalho beta de context1m e usa a janela de contexto padrão no lugar- O beta de OAuth necessário é mantido
Backend do Claude CLI
- O OpenClaw oferece suporte ao backend empacotado
claude-clida Anthropic - Um funcionário da Anthropic informou que essa forma de uso voltou a ser permitida
- Com isso, até que a Anthropic anuncie uma nova política, o OpenClaw trata a reutilização do Claude CLI e o uso de
claude -pcomo formas de integração permitidas - Para host de gateway sempre ativo e controle explícito de cobrança no lado do servidor, a chave de API da Anthropic é o caminho operacional mais claro
- Para detalhes de configuração e execução, consulte o caminho
/gateway/cli-backends
Observações
- A documentação pública de Claude Code da Anthropic ainda documenta o uso direto do CLI, como
claude -p - Um funcionário da Anthropic informou que o uso do Claude CLI no estilo OpenClaw voltou a ser permitido e, até que a Anthropic anuncie uma nova mudança de política, isso é tratado como orientação confirmada
- O OpenClaw também continua oferecendo Anthropic setup-token como caminho de autenticação por token suportado
- No entanto, quando disponível, o OpenClaw passa a priorizar reutilização do Claude CLI e
claude -p - Para detalhes de autenticação e regras de reutilização, consulte o caminho
/concepts/oauth
Solução de problemas
-
401 errors / token suddenly invalid
- A autenticação por token Anthropic pode expirar ou ser revogada
- Para novas configurações, recomenda-se migrar para chave de API da Anthropic
-
No API key found for provider “anthropic”
- A autenticação é aplicada por agente
- Novos agentes não herdam a chave do agente principal
- É necessário executar o onboarding novamente para esse agente ou definir a chave de API no host do gateway e depois verificar com
openclaw models status
-
No credentials found for profile
anthropic:default- É possível verificar qual perfil de autenticação está ativo com
openclaw models status - É necessário executar novamente o onboarding ou definir a chave de API no caminho desse perfil
- É possível verificar qual perfil de autenticação está ativo com
-
No available auth profile (all in cooldown/unavailable)
- É possível verificar
auth.unusableProfilesemopenclaw models status --json - O cooldown de rate limit da Anthropic pode ser por modelo, então mesmo que o modelo atual esteja em cooldown, outro modelo Anthropic da mesma família ainda pode estar disponível
- É necessário adicionar outro perfil Anthropic ou aguardar o fim do cooldown
- Também são fornecidos os caminhos adicionais
/gateway/troubleshootinge/help/faq
- É possível verificar
9 comentários
Depois que passei a conseguir usar o modelo local gemma4 31b no Codex com o Codex (até com o cuidado de verificar automaticamente o multi-turn!), cancelei todas as outras assinaturas além do ChatGPT Pro. Juntando o codex-app-linux com esses dois, ainda sobra cota de uso mesmo rodando tarefas no máximo de paralelismo que consigo perceber.
Poderia informar um pouco das especificações de hardware!
Rodando na 4090 ele até é inteligente, mas para uso de longo prazo achei insuficiente.
Eu também estou tentando rodar o gemma4 localmente. Você poderia me dizer mais ou menos qual é a sua configuração de hardware?
Sinceramente, é constrangedor demais...
Só parece que estão fazendo isso temporariamente porque tentaram impedir usuários Pro de usar o Claude Code e a reação do público não foi boa..
Mesmo assim, parece melhor observar por enquanto do que acabar usando errado à toa e ter a conta suspensa.
Fiquei quebrando a cabeça com o uso da chave da API CC OAuth e acabei simplesmente me fixando no Codex antigo...
Na real, eu também ultimamente acabei me fixando no Codex... o Claude consome tokens rápido demais.
Comentários do Hacker News
Sou o Peter, do OpenClaw. O Boris, do Claude Code, disse publicamente no Twitter que o uso em estilo CLI era permitido, então confiei nessa orientação e investi na implementação. Também alterei para desativar por padrão recursos de tokens excessivos, como heartbeat, ao usar a CLI, mas na prática a Anthropic está bloqueando parte do prompt de sistema, então a comunicação pública e o comportamento atual não batem. A fala relacionada pode ser vista aqui. Parece que, quando as pessoas começaram a contornar isso mudando levemente o nome, o classificador também mudou, mas eu não tenho intenção de entrar nesse tipo de jogo de contorno, então fiquei num estado ambíguo em que, em teoria, dá, mas na prática não funciona
claude -p. Mas, com a introdução da nova flag--bare, parece preocupante que esteja vindo um rug pull que, na prática, empurra o-ppara fora para usuários ilimitados. A documentação também diz que--bareé o modo recomendado para scripts e chamadas via SDK, e que no futuro será o padrão do-p, então espero ter entendido errado ou que haja uma explicação clara. A documentação é a headless docsclaude -pou fluxos melhores baseados em SDKA situação atual realmente me parece um lamaçal turvo. A Anthropic precisa deixar claro o que é suportado e o que não é, dependendo de haver assinatura ou não, e até lá é difícil para o usuário entender como deve usar o produto. Eu nem uso OpenClaw nem produtos semelhantes hoje, mas pelo menos queria saber o que pode e o que não pode, e no momento acho isso quase impossível
vibe product. Hoje em dia as coisas aparecem e somem rápido demais, então perdi muito daquela expectativa que existia antesAcho que o ponto principal é que funcionários da Anthropic deram explicações conflitantes no Twitter, inclusive com correções, o que gerou ainda mais confusão. Hoje dizem que o uso do Claude CLI no estilo OpenClaw é ok, amanhã isso pode ser retirado de novo com uma atualização de política. Em relação ao Claude Code, a Anthropic mostrou ser difícil de confiar, e acho que, para preservar a saúde mental, é melhor migrar para outro provedor
keep your insanity, foi até engraçado de tão precisoclaude -pem cobrança adicional. Então não sinto que esta página contradiga aquele anúncioEssa mudança já voltou há 2 semanas em um commit, e isso também foi 3 dias depois de a Anthropic dizer que o OpenClaw exigia uso adicional. Vendo essa sequência, fica difícil levar a situação muito a sério, e também é estranho não haver nem um posicionamento oficial nem sequer um Tweet. Para outro contexto, veja este link no HN
Open-Claw style CLI usageé mais próximo do segundo caso, e entendo que usar credenciais OAuth fora do Claude Code CLI gera cobrança adicional com base em preço de API, além da assinatura existenteclaude -psob cobrança adicionalA Anthropic parece estar queimando o goodwill acumulado ao aumentar preços, reduzir limites e manter políticas ambíguas
Como isso aconteceu logo depois do acordo com a Amazon, fico pensando se no fim não era mesmo um problema de restrição de compute. De qualquer forma, no plano mensal de 20 dólares do Codex que eu testei, o limite era tão baixo que o agente mal conseguia fazer alguma coisa antes de passar para outro agente. Sem um anúncio oficial da Anthropic, vou observar com cautela por um tempo porque tenho medo de perder minha conta Max de 200 dólares por mês, que valorizo, usando dessa forma
Pelo meu entendimento, você pode usar credenciais OAuth desde que esteja usando bibliotecas ou ferramentas da Anthropic. Por exemplo, dá para conectar OAuth ao Claude Agent SDK e prototipar vários agentes com Claude Code dentro de um custo mensal previsível, o que é especialmente atraente para transformar skills em ferramentas standalone ou apps. De forma mais complexa, também dá para rodar Claude Code dentro de um tmux trocando entrada e saída, e o MCP Channels também é interessante, porque coloca um servidor MCP entre o app e a instância em execução do Claude Code e permite comunicação bidirecional. É mais lento, mas é interessante porque possibilita algo como sair temporariamente para uma GUI em tarefas mais fáceis sem perder o contexto da sessão CLI e depois voltar
Na última semana, meu assistente auxiliar do OpenClaw, usando Claude, perdeu a personalidade e passou a não conseguir mais fazer coisas que antes fazia bem. O uso chegou a acumular uns 28 dólares, mas depois disso não consumiu mais nada, então não sei se havia outro problema, porém o fenômeno continuou. No fim me cansei e usei um script de migração para levar o histórico de conversas e a personalidade para a config do claude code, e, graças ao novo recurso de remote exec, recuperei a maior parte da funcionalidade anterior sem precisar assumir a instabilidade das ferramentas experimentais mais recentes, como o OpenClaw. Minha impressão é que a Anthropic planejou introduzir atrito suficiente no espaço dos usuários hobby para acabar empurrando-os para a solução proprietária da própria empresa e, de todo modo, essa acaba parecendo a opção mais segura
claude -p prompte cron, e talvez eles nem liguem porque o número de pessoas capazes de fazer isso deve ser estatisticamente irrelevante. Para contexto, vale ver também este post no HNO OpenClaw dizer que
a Anthropic disse que está tudo bem... realmente uma situação cristalinamente clara, sem dúvidaNo geral, estou satisfeito com a combinação de Claude Code, Opus e plano Max, mas ainda me incomodam os momentos em que não funciona, o custo e o receio de banimento da conta. Então fico curioso se existe alguma combinação alternativa que entregue experiência parecida ou melhor por menos dinheiro. Vejo muita gente falando bem de pi.dev e OpenCode, e quando conectei Mimo V2 pro ao OpenCode achei bem bom. Antes também usei Qwen CLI e Gemini CLI, antes de o gratuito ser bloqueado, e já usei Z.ai com OpenCode. Também vejo gente dizendo que usa Opus para planejamento e passa tarefas menos importantes para modelos mais baratos, mas não gosto muito de cobrança por uso porque imagino que no fim não saia mais barato. Trabalho principalmente com backend em Python e frontend em TypeScript, hospedo na Hetzner, uso bastante Docker e, quando preciso, k3s, então queria receber indicações de configurações práticas que funcionem bem nesse ambiente
Se não tiver cache de prompt, parece que os tokens vão simplesmente derreter.