Anthropic amplia em 2x os limites de uso do Claude com contrato de compute com a SpaceX
(anthropic.com)- A Anthropic anunciou que vai ampliar os limites de uso do Claude Code e da API do Claude por meio de uma parceria com a SpaceX e de vários contratos recentes de compute
- O limite de uso de 5 horas do Claude Code foi dobrado (planos Pro, Max, Team e Enterprise baseado em assentos), e a redução de limite em horários de pico para contas Pro e Max foi removida
- Os API rate limits do modelo Claude Opus foram significativamente elevados, e a capacidade adicional melhora diretamente a disponibilidade para assinantes do Claude Pro e Claude Max
- A Anthropic fechou contrato para usar toda a capacidade de compute do data center Colossus 1 da SpaceX, ganhando acesso em um mês a mais de 300 MW de nova capacidade e a mais de 220 mil GPUs NVIDIA
- A expansão de compute da Anthropic avança além dos contratos com Amazon, Google e Broadcom, Microsoft e NVIDIA, e Fluidstack, também considerando infraestrutura regional, custos de energia e investimento nas comunidades locais
Expansão dos limites de uso do Claude
- A Anthropic está elevando os limites de uso do Claude Code e da API do Claude por meio de uma parceria com a SpaceX e de vários contratos recentes de compute
- As três mudanças entram em vigor no próprio dia do anúncio
- Nos planos Pro, Max, Team e Enterprise baseado em assentos, o limite de uso de 5 horas do Claude Code foi dobrado
- Para contas Pro e Max, a redução de limite em horários de pico do Claude Code foi removida
- Os API rate limits do modelo Claude Opus também foram significativamente elevados
Nova parceria de compute com a SpaceX
- A Anthropic firmou contrato para usar toda a capacidade de compute do data center Colossus 1 da SpaceX
- Com esse contrato, em um mês ela passa a ter acesso a mais de 300 MW de nova capacidade e a mais de 220 mil GPUs NVIDIA
- A capacidade adicional melhora diretamente a disponibilidade para assinantes do Claude Pro e Claude Max
- Este contrato se soma aos anúncios anteriores de expansão de compute da Anthropic
- Contrato de até 5 GW com a Amazon: inclui cerca de 1 GW de nova capacidade até o fim de 2026
- Contrato de 5 GW com Google e Broadcom: operação prevista para começar em 2027
- Parceria estratégica com Microsoft e NVIDIA: inclui US$ 30 bilhões em capacidade no Azure
- Investimento de US$ 50 bilhões em infraestrutura de IA nos EUA com a Fluidstack
- O treinamento e a execução do Claude usam vários hardwares de IA, como AWS Trainium, Google TPUs e GPUs NVIDIA
- A Anthropic continua buscando oportunidades para colocar capacidade adicional online
- Como parte do acordo com a SpaceX, a empresa também demonstrou interesse em colaborar com a SpaceX no desenvolvimento de vários GW de capacidade de compute de IA em órbita
Expansão internacional e infraestrutura regional
- Clientes enterprise de setores altamente regulados, como serviços financeiros, saúde e governo, precisam cada vez mais de infraestrutura regional para atender exigências de compliance e residência de dados
- Por isso, parte da expansão de capacidade da Anthropic está acontecendo internacionalmente
- A parceria anunciada recentemente com a Amazon inclui capacidade adicional de inferência na Ásia e na Europa
- As regiões que receberão capacidade adicional são escolhidas com cuidado, com foco em democracias que tenham estruturas legais e regulatórias capazes de sustentar investimentos em grande escala
- Também é um critério importante que a cadeia de suprimentos de hardware, rede e instalações necessária para o compute seja segura
Custos de energia e investimento nas comunidades locais
- A Anthropic anunciou recentemente o compromisso de arcar com aumentos na conta de luz do consumidor caso seus data centers nos EUA provoquem esse impacto
- Como parte da expansão internacional, a empresa está avaliando estender esse compromisso para novas jurisdições
- Também está avançando em formas de trabalhar com líderes locais para reinvestir nas comunidades onde as instalações estão localizadas
1 comentários
Comentários do Hacker News
Enquanto isso, treinamento continua caro, então Anthropic/OpenAI acabam indo mais para o lado do negócio de treinamento
Os modelos viram unidades alugáveis ou ativos compráveis, e os usuários passam a rodá-los em hardware de inferência, alugar esse hardware ou possuí-lo
Ou então pagam um prêmio para uma empresa que faça tudo isso por eles
Fico curioso se existe algum post de blog ou algo do tipo sobre que infraestrutura é usada só para a parte de inferência dos modelos mais recentes, como o Opus
Imagino que seja segredo, mas se dá para usar o modelo diretamente no AWS Bedrock, talvez isso dê alguma pista
Data centers às vezes operam de forma meio estúpida porque, para expandir a operação, velocidade importa mais do que custo
Existem regulações das concessionárias e coisas como taxa de rampa para não ferrar a rede elétrica, e a explicação é que os data centers estão violando isso de forma séria
Como a carga varia muito, eles usam geração a gás natural atrás do medidor, e eixos que deveriam durar 7 anos acabam durando só 10 meses por causa de partidas e paradas repetidas
https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
Do lado da computação, existe o projeto de referência padrão da NVIDIA
https://www.nvidia.com/en-us/technologies/enterprise-referen...
Não examinei em detalhe, mas parece provável que haja rede Mellanox entre GPUs, muito código customizado em larga escala para dividir tensores nas GPUs, e código para mover ativações entre nós de GPU
A Anthropic hospeda seus próprios modelos dentro do AWS Bedrock como um serviço gerenciado, e o cliente chama o LLM como chamaria qualquer outra API
Qual infraestrutura da AWS atende essas requisições de API fica invisível
Está transformando em uma fonte de receita bem grande, antes do IPO, um ativo construído para o Grok que só drenava dinheiro
Ao mesmo tempo, também serve para empurrar a dívida do Twitter para o público, então os contadores claramente sabem o que estão fazendo
A Anthropic consegue a computação de que precisa desesperadamente para continuar crescendo, o Elon aluga a computação que a xAI não conseguiu usar direito porque a demanda pelo Grok é baixa, e a SpaceX consegue registrar receita nos livros para o IPO
A frase “vamos adicionar capacidade de forma cuidadosa em cooperação com democracias que tenham estruturas legais e regulatórias para sustentar investimentos dessa escala” traduzida para a linguagem real significa algo mais próximo de “vamos priorizar lucro acima de tudo”
Elon é um sujeito de extrema direita que apoiou Trump, e Trump também não é exatamente muito democrático, mas o que isso quer dizer é que estamos precisando muito mais de dinheiro
Parece também uma tentativa de fazer esquecer que a xAI recebeu dinheiro de governos não democráticos do Oriente Médio, e a Anthropic provavelmente compraria até computação chinesa se pudesse vender modelos com isso
Data centers não são equipamentos plug and play com especificações bem escritas e interfaces padrão internacionais
Se o Elon quiser construir um data center orbital, a Anthropic vai rodar modelos lá com prazer
Não há muito motivo para duvidar que o Elon possa construir um data center orbital; a questão é se isso tem viabilidade econômica comparado com soluções em terra
Se funcionar, funcionou; se não, não funcionou
Como parte de um acordo para conseguir acesso a data centers terrestres, estão enfeitando uma computação orbital obviamente fantasiosa como se fosse algo maior do que é
Consigo imaginar algo assim existindo um dia, mas, como o FSD, não parece nem um pouco perto de se concretizar
O custo de dizer isso é quase zero, e depois dá para inventar uma desculpa dizendo que o interesse sumiu
Se existe algum custo, é só um pouco de reputação
Ao criar demanda extra na rede elétrica, também pode aumentar o risco para os moradores ao provocar apagões em larga escala durante eventos climáticos extremos
https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
Então dá para colocar a Anthropic na lista de empresas que falam muito de segurança, mas na prática priorizam lucro acima da segurança
Até o link da Wikipédia incluído diz que pode haver nuances relacionadas a permissões, mas eu não vi nada ali que sustente a alegação de que a energia é “ilegal”
Eles não fabricam produtos químicos nem fazem esse tipo de coisa
É preciso ser muito cético com esse tipo de acusação, especialmente quando há empresas muito capitalizadas envolvidas, porque só alegações de danos “plausíveis e persistentes” já podem levar a processos ou pressão por acordo
Se isso for verdade, é uma enorme brecha tributária, e não surpreende que haja tanto investimento de capital em data centers
[0] https://www.datacenterknowledge.com/regulations/how-are-data...
Só significa que você pode atingir o limite semanal em 3 dias em vez de 5
Nas semanas em que uso bastante, costumo usar por mais de 6 horas por dia de forma consistente
Mas sou bem rigoroso em manter as sessões sempre abaixo de 200 mil a 250 mil tokens
Uso entre 3 e 5 sessões por semana
Quando faço algo mais complexo, gasto a janela de 5 horas rapidinho e isso é frustrante, mas ainda não cheguei ao limite semanal
Acho que tem bastante gente no mesmo caso que eu
Se você realmente apertar o uso, dá para estourar até o limite semanal do plano Max de $200 em um único dia
Na minha cabeça, transformo o uso semanal em cota diária, algo como uns 14% por dia, então tento usar menos no começo da semana e gastar com mais liberdade no fim
Aí acabo passando os dois últimos dias pensando em como consumir o uso que guardei
A janela de 5 horas torna isso mais difícil, e no último dia da semana eu fico tentando enfiar 10% a cada janela de 5 horas enquanto estou acordado, o que eu odeio
Quero trabalhar quando sou mais produtivo, não quando uma janela de tempo absurda manda
Não quero pensar coisas como “acho que vou usar mais o Claude às 11h, então preciso mandar uma mensagem idiota para o Haiku às 7h30 para começar a janela de 5 horas e poder passar para a próxima às 12h30”
Então essa mudança é bem-vinda, mas ainda é 100% um alívio parcial de um problema criado por eles mesmos, enquanto fingem estar fazendo um favor ao usuário
Entendo a intenção de reduzir o uso em horários de pico, mas ainda assim acho isso ruim
No fim, parece que o Elon desistiu da xAI e foi para o lado de vender computação
O Grok 4.1 Fast era a forma mais barata de fazer pesquisa no X, mais barato até que a API do X, e sumiu em 15 de maio
https://docs.x.ai/developers/models
Pode ser uma liberação de computação para vender
Só que modelos open source como Gemma e Qwen estão melhorando rápido demais, a ponto de até a Anthropic ver risco real de longo prazo para o valor dos próprios modelos e ferramentas
Basicamente, se eu fosse Anthropic ou xAI, tentaria gerar receita em todo lugar possível e ver o que sobrevive
Não faz sentido buscar domínio monopolista quando tudo está tão volátil
Pode ser só tempo de GPU que estava sendo desperdiçado, mas a Anthropic também pode ter feito uma oferta difícil de recusar
Especulando, se foi uma oferta irrecusável para o Elon, talvez tenha envolvido a Anthropic fornecer dados de treinamento ou tecnologia em alguma medida
É difícil ver a xAI como um laboratório sério de pesquisa
Eles conseguem informações internas sobre como o Claude funciona e também um fluxo gigantesco de dados de uso do Claude
Parece provável que tudo isso acabe alimentando o desenvolvimento do Grok no futuro
Passei alguns dias usando o Claude Code e batendo no limite o tempo todo, então fui tentar fazer upgrade para o Max, mas no fluxo de upgrade exigiram verificação de identidade via Persona
Achei ok e tentei cancelar o upgrade, mas bloquearam completamente até meu acesso ao Claude Code do plano atual, e não havia como desbloquear sem concluir a verificação de identidade
Eu nunca faria isso, e foi uma experiência realmente horrível
Pelo lado bom, isso me fez descobrir que o Deepseek é muito mais barato e, em trabalho de engenharia reversa, está em um nível parecido
É uma boa notícia, mas não vou voltar
A Anthropic cometeu erros demais em um período curto demais e me perdeu
O Opus foi substituído por GPT 5.5, DeepSeek, Kimi e Qwen, todos usando meu único harness e permitindo trocar de modelo com facilidade
Se algum deles começar a agir do mesmo jeito, eu troco na hora