Limite semanal de uso do Claude Code
(news.ycombinator.com)- Foi introduzido um limite semanal de uso para o serviço Claude Code da Anthropic
- Aplica-se tanto a usuários gratuitos quanto pagos
- Os usuários passam a ter restrições no número máximo de consultas ou na quantidade de tokens processados por semana
- A adoção do limite tem como objetivo evitar o uso indevido do serviço e garantir a estabilidade dos recursos do sistema
- Desenvolvedores e startups precisam ter atenção redobrada ao gerenciamento de recursos ao usar a API
Visão geral da introdução do limite semanal de uso do Claude Code
A Anthropic passou a aplicar uma nova política de limite semanal de uso ao serviço Claude Code
- Foi definido para todos os usuários (gratuitos e pagos) um limite de uso de consultas ou tokens
- Esse limite foi introduzido para evitar abuso do serviço, oferecer um serviço justo e garantir a estabilidade dos recursos de infraestrutura
- O limite é redefinido toda semana, e, se for excedido, não será possível continuar usando o serviço até a semana seguinte
Principais impactos para desenvolvedores e startups
- Aumenta a necessidade de planejamento de uso ao utilizar o Claude Code no desenvolvimento de produtos
- Serviços integrados à API passam a exigir lógica de gerenciamento automatizado ou alertas de excesso de limite
- Ao realizar geração de código em grande escala, análise ou chamadas repetidas, cresce a importância de otimizar o uso de recursos
Conclusão
- A introdução da política de limite semanal de uso do Claude Code tem como objetivo a sustentabilidade e a melhoria da qualidade do serviço
- Startups e profissionais de TI precisam verificar os limites semanais e planejar o uso ao integrar sistemas existentes e projetar serviços
1 comentários
Comentários no Hacker News
Acho que provavelmente não vou atingir o limite semanal, mas me incomoda que o limite seja semanal e não algo como uma janela de 36 horas
Se eu bater no limite, fico sem poder usar pelo resto da semana
É inconveniente ficar tanto tempo sem uma ferramenta à qual já me acostumei
Alguém pode dizer que estou dependente demais do Claude, mas o mesmo vale para outras ferramentas como o ripgrep
Ficar alguns dias sem usar até vai, mas uma semana é tempo demais
E também chamou atenção o fato de terem dito que isso afeta “menos de 5% dos usuários”
Normalmente esse tipo de aviso fala em menos de 1%, mas a Anthropic está dizendo que 1 em cada 20 pessoas vai passar do limite
No plano ChatGPT Plus, a sensação do limite de 100 usos/semana do o3 é exatamente essa
Você nem consegue saber quanto já usou e, por ser um recurso importante, acaba economizando por instinto
No fim, não aproveita o plano direito e muda para modelos como o o4-mini
Eu preferiria um limite diário
Mas talvez a intenção do limite semanal seja justamente fazer as pessoas economizarem e ficarem abaixo dele
É triste ver desenvolvedores ficando dependentes de serviços online proprietários
Antigamente dava para fazer tudo com ferramentas FOSS, sem precisar ficar preso a uma empresa ou serviço específico pagando assinatura mensal
Agora alguns estão como fazendeiros da Monsanto, pagando todo mês para usar as ferramentas e esquecendo como trabalhar sem isso
Eu atinjo o limite diário do Pro com sonnet com frequência, umas 3 vezes por dia
Se eu usar Claude Code e claude juntos, acaba em 30 minutos
Nem fico com multiagentes 24/7 nem várias janelas abertas, e mesmo assim acontece
Não me considero um usuário top 5%, mas também não me surpreenderia acabar o limite na quarta-feira
Eu só agora estava tentando usar mais o chat do Claude, mas se não dá para confiar nele por vários dias, então não faz sentido
A Anthropic disse que 1 em cada 20 pessoas vai bater no limite, mas não parece plausível que existam tantos usuários compartilhando conta ou usando automação 24/7
Se você bater no limite, não fica sem usar pela semana inteira, só pelo tempo restante
A própria pessoa disse que provavelmente quase nunca vai chegar nisso, então, se chegar, deve ser nas últimas 36 horas da semana
Também existe a opção de pagar pelo uso via API
Não sei como isso vai evoluir no longo prazo, mas é ruim ter que sentir toda vez que usa um LLM que aquilo é um recurso limitado
As pessoas estão acostumadas a planos ilimitados
O modelo de cobrança atual parece forçado e desconfortável
O modelo ilimitado funciona bem para serviços que são “baratos demais para medir”
Internet, SMS e afins podem ser assim porque o custo direto é muito baixo
Mas LLM ainda tem um custo direto considerável a cada execução
Não concordo com a ideia de esperar uso constante ao longo do mês inteiro
Eu normalmente uso pouco ao longo do mês, mas às vezes passo alguns dias usando 11 horas por dia, e nessas horas é bem provável eu bater no limite
Por isso usar a API diretamente parece melhor, porque aí o limite é a profundidade da minha carteira
Usando algo como OpenRouter, você também evita as limitações do modelo por assinatura
Hoje em dia o Gemini 2.5 Pro está servindo melhor que o Claude para trabalho com código
Também tenho curiosidade sobre que outras opções competitivas em custo existem
https://docs.anthropic.com/en/api/rate-limits#rate-limits
Na minha opinião, essas ferramentas deveriam abandonar de vez esse modelo de “US$ 20 por mês”, “US$ 200 por mês” para dar acesso a uma quantidade limitada e com cálculo de limite difícil de entender
Deveriam migrar totalmente para uso medido, o que seria muito mais amigável para o usuário
Poderiam oferecer um free tier como 20 usos grátis para teste, ou uma tabela progressiva em que a proporção muda conforme o volume, e cobrar dos usuários extremos mais perto do custo real
Assim, quem usa pouco pagaria barato e eles ainda ganhariam participação de mercado
Se oferecerem preço melhor que o OpenRouter, as pessoas ficarão nesse ecossistema em vez de ir para ferramentas de terceiros
Se a ferramenta for realmente boa, os usuários ficam mesmo sendo por uso
O problema é que os provedores querem subsidiar usuários para ganhar mercado, mas ao mesmo tempo impedir abuso e uso extremo
A solução 100% correta é um modelo totalmente baseado em consumo, sem taxa de entrada
Mas aí quem assina e usa pouco pode acabar perdendo, então imagino que o time comercial vá se opor
Além disso, isso facilitaria comparar preços e migrar entre serviços, sem aquela sensação de ficar preso por um ou dois meses
No longo prazo, acho que os LLMs locais vão ficar melhores que os melhores LLMs em nuvem de 2025, então 99% do trabalho cotidiano será resolvido de forma ilimitada localmente
E só problemas realmente complexos vão exigir conexão com a nuvem
Os LLMs vão evoluir em eficiência, e os custos de GPU, memória e armazenamento vão continuar caindo e ficando mais acessíveis
Agora só parece desconfortável porque ainda estamos numa fase de transição
Mesmo sendo um recurso limitado, eu aceitaria se ao menos desse para saber quanto já usei
O ruim é não conseguir ver o progresso
Estou confuso com a diferença entre Max 5x e Max 20x
No meu e-mail diz que “a maioria dos usuários do Max 20x pode usar Sonnet 4 por 240 a 480 horas por semana e Opus 4 por 24 a 40 horas”
No anúncio oficial diz que “a maioria dos usuários do Max 5x pode usar Sonnet 4 por 140 a 280 horas por semana e Opus 4 por 15 a 35 horas”
Eu preferiria que o limite fosse mais que o dobro, proporcional ao preço, mas no Opus 4 a diferença é só de 5 a 9 horas
No mínimo não deveria ser o dobro? Já que custa o dobro
Se for realmente assim, eu vou descer imediatamente do Max 20x para um plano inferior
Na Austrália estou pagando US$ 350 por mês
Eu vivia batendo no limite do Opus e fiz upgrade para 20x, mas agora parece que quase não existe diferença entre 20x e 5x
Foi por isso que parei de usar o MAX e fiz downgrade para o Pro, usando o o3 e outros modelos via API
No começo eu não preciso de tantas horas assim, então uns US$ 10 por projeto bastam para usar o o3, Gemini e Opus
Sai modelo novo a cada poucos dias, e eu não quero ficar preso a um único fornecedor
Na prática, não é o dobro de uso, e sim prioridade maior quando o tráfego está congestionado
Se o material de marketing diverge da realidade, eu gostaria que alguém investigasse com dados reais e abrisse uma ação coletiva
Entendo que mesmo pagando US$ 200 por mês talvez ainda não seja suficiente
Então eles deveriam criar um plano realmente suficiente para usar sem se preocupar com limite
Não existe nada que quebre mais o fluxo do que uma mensagem tipo “acabou o tempo!”
Se fosse por créditos, pelo menos daria para ver quanto foi gasto e pagar mais se necessário
Esse conceito de “esperar enquanto as GPUs esfriam” não ajuda em nada na produtividade
Se você roda vários agentes, “35 horas” está muito longe de ser suficiente
Também é estranho a ferramenta em si ser projetada para dar suporte a esse tipo de uso
Para virar um plano suficiente para todos e ainda lucrativo, talvez no fim todo mundo fugisse para a concorrência
Pode até ser uma boa estratégia fazer os usuários dependerem da ferramenta e depois subir os preços aos poucos
“Rodar vários agentes” não me parece um caso de uso comum para um plano individual
Nesses casos, sempre fez mais sentido pagar pelo uso diretamente via API
Permitir isso em um plano fixo já era uma generosidade do serviço, e desde o começo ele foi anunciado como “limites mais altos”, não como “ilimitado”
A API tem limites muito mais flexíveis e, na prática, quase não tem restrições
O Claude também pode ser usado pela Aws e gcp, com limites, créditos e tabelas de preço diferentes
A política deveria ser otimizada para os “bons usuários”, não moldada em torno dos “maus usuários”
É só usar a API
No geral, acho que é uma mudança positiva para proteger o sistema quando alguns usuários rodam muitos agentes 24/7
Assim mais gente consegue continuar usando o serviço de forma estável
Mas é chato não mostrarem “quanto uso ainda resta”
Não precisa mostrar a porcentagem exata, mas pelo menos alguns avisos no caminho, por exemplo quando você chegar na metade, já ajudariam bastante no planejamento
O fato de não oferecerem isso faz parecer que “não querem que a gente consiga medir”
Não é que eu queira controlar tudo minuciosamente, só queria ter uma noção aproximada de onde estou
Segundo a conta da Anthropic no Reddit
um usuário consumiu dezenas de milhares de dólares em LLM com um plano de US$ 200
A empresa está desenvolvendo uma solução separada para usuários avançados
Mas os novos limites existem para dar uma experiência mais justa e impedir compartilhamento de conta e revenda
Por isso a gente não pode ter “um serviço bom”
Uma startup em que trabalhei também já ofereceu uma opção ilimitada
No começo achávamos que ninguém conseguiria usar tanto assim, mas na prática havia usuários demais explorando criativamente os limites do serviço
As contas ficavam ligadas em serviços 24/7 fazendo requisições até 95% do limite o tempo todo
Usavam vários IPs e exibiam padrões que claramente não pareciam humanos
No início, tratamos como outliers, mas quando esse tipo de conta começa a crescer exponencialmente
na prática eram várias empresas criando múltiplas contas e fazendo balanceamento de carga entre elas
Se você olha um gráfico médio de lucro/prejuízo por usuário, essas contas só geram perdas enormes enquanto consomem recursos no máximo
Aí a política inevitavelmente muda
Você perde esses “clientes”, mas a maioria dos usuários normais não é afetada
E o serviço inteiro melhora
Toda startup de alto volume acaba passando por isso
Na prática, a empresa pode estar vendendo esse serviço no prejuízo
Mesmo com os limites atuais, isso ainda não impediria esse tipo de abuso? Não entendo muito bem
Teve um cara se gabando disso no Twitter ontem
Ele disse que usou US$ 13.200 com uma conta de US$ 200 e rodou 4 ou 5 agentes dedicados ao Opus 24/7 fazendo chamadas recursivas entre si
Isso claramente é abuso e precisa ser alvo de restrição
Mas não sei como exatamente um provedor de inference deveria bloquear isso
O Cursor já está numa situação pior porque adiciona um prêmio maior em cima de Anthropc/OpenAI
A Anthropic está numa situação parecida, mas sem uma opção premium aqui
Se você permite, por US$ 20, até US$ 500 de custo real por mês, está basicamente dando 95% de desconto, e isso não tem como se sustentar
Quando você subsidia assim, acaba criando um senso maior de “direito adquirido” na comunidade
Parece que estão tirando algo a que as pessoas já se acostumaram, mas na prática o cap/opex sozinho já não fecha a conta, e se considerar também P&D, manter o modelo fica mais difícil ainda
Então o que de fato resta é “continuar mudando a estrutura de preços enquanto os usuários vão migrando para a empresa que estiver subsidiando mais na próxima rodada”
Teria sido melhor apresentar essas políticas desde o começo como um trial, deixando claro o tamanho do subsídio
As pessoas experimentariam os modelos e algumas ficariam, e mesmo que houvesse alguma evasão, haveria menos ressentimento
Se fossem realmente transparentes sobre a estrutura de cap/opex/custos de desenvolvimento
as pessoas entenderiam que isso já está no nível de bancar “um engenheiro sênior incansável”
Este e-mail teria sido muito mais útil se trouxesse um histórico mensal mostrando em quais meses eu atingi o limite (Aug 2024, Jan 2025, May 2025 etc.)
Eu não faço ideia se estou entre os 5%
Na verdade, limitar 1% eu até entenderia, mas 5% em SaaS já representa uma parte enorme dos usuários reais
Esse tipo de serviço precisa de cobrança por medição
Todas as empresas de IA estão batendo no mesmo problema
Assinaturas de preço fixo existem porque a empresa quer que o usuário não pense no custo
Só que uma minoria minúscula de power users força a assinatura até o limite extremo
Serviços como Terragon foram criados justamente para otimizar esse tipo de uso
Por isso a empresa continua reduzindo os limites, e o usuário passa a pensar ainda mais em custo
O Cursor já ajustou os limites várias vezes, e agora a Anthropic está indo pelo mesmo caminho
No fim, eles só não querem mais subsidiar os 10% de usuários mais extremos
Eu queria que existisse um plano medido direto na interface web
A API existe, então dá para criar seus próprios tokens e usar o Claude Code diretamente sem nenhum plano separado
Isso me lembra a época da hospedagem compartilhada nos anos 1990
Se eles oferecerem um plano web medido, teriam que revelar o quão caro é de fato bancar inference
Hoje ainda é extremamente caro rodar IA em um nível de uso produtivo real
A gente não consegue ter um bom serviço por causa desse “padrão avançado de uso do Claude em segundo plano 24/7”
As empresas de IA anunciam algo como “a IA toca o trabalho sozinha; o desenvolvedor pode tomar café ou dormir enquanto ela resolve tudo”, então de fato existem desenvolvedores usando o serviço exatamente desse jeito
Agora culpar esses usuários como se fossem o problema é estranho
Eu ri nessa parte
Parece coisa de um “destruidor benevolente de mundos” tentando acelerar ainda mais a morte térmica do universo
Acho que esse problema já era totalmente previsível
Eles certamente consideraram isso o suficiente quando definiram o preço inicial
Só não queriam que isso impedisse o lançamento, então a adoção foi adiada, e agora está sendo implementada em função da realidade
Não importa como você precifique, o usuário sempre vai tentar extrair 100% do plano dele
Eu sou assinante Max e ainda assim bato no limite com frequência
É estranho existir limite mesmo quando estou usando aquilo pelo que paguei
Isso é exatamente a lógica de experimento de preço
Quando a regulação é fraca, em algum momento aparecem usuários extremos, e a empresa vende isso como se fosse sustentável, embora não seja, para depois retirar o bônus mais tarde
Talvez seja uma sugestão aleatória, mas pensei em limites adaptativos
Opção 1: permitir rajadas intensas de uso por um período curto no começo e depois ir reduzindo gradualmente a velocidade, com possibilidade de nova rajada após um cooldown
Assim o usuário consegue ter picos curtos de produtividade, e o servidor também consegue respirar
Opção 2: como em dados móveis, você tem um volume de requisições que pode usar em alta velocidade e depois entra em throttling, com a opção de pagar por mais
Esse modelo ainda gera receita adicional
Opção 3: alocação adaptativa de recursos na infraestrutura e na rede
Trabalhos que não dependem de GPU podem ter prioridade menor, requisições de rede podem ser processadas mais lentamente, ou o sistema pode distribuir as tarefas entre servidores diferentes em k8s conforme o consumo
E, além de discutir limites, talvez fosse melhor rastrear quais requisições realmente gastam muito e ajustar caminhos de código ou a infraestrutura ineficiente para ganhar folga
Vale reforçar que pequenas otimizações de código podem criar uma grande margem de respiro no sistema