1 pontos por GN⁺ 1 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • A Anthropic anunciou que vai ampliar os limites de uso do Claude Code e da API do Claude por meio de uma parceria com a SpaceX e de vários contratos recentes de compute
  • O limite de uso de 5 horas do Claude Code foi dobrado (planos Pro, Max, Team e Enterprise baseado em assentos), e a redução de limite em horários de pico para contas Pro e Max foi removida
  • Os API rate limits do modelo Claude Opus foram significativamente elevados, e a capacidade adicional melhora diretamente a disponibilidade para assinantes do Claude Pro e Claude Max
  • A Anthropic fechou contrato para usar toda a capacidade de compute do data center Colossus 1 da SpaceX, ganhando acesso em um mês a mais de 300 MW de nova capacidade e a mais de 220 mil GPUs NVIDIA
  • A expansão de compute da Anthropic avança além dos contratos com Amazon, Google e Broadcom, Microsoft e NVIDIA, e Fluidstack, também considerando infraestrutura regional, custos de energia e investimento nas comunidades locais

Expansão dos limites de uso do Claude

  • A Anthropic está elevando os limites de uso do Claude Code e da API do Claude por meio de uma parceria com a SpaceX e de vários contratos recentes de compute
  • As três mudanças entram em vigor no próprio dia do anúncio
  • Nos planos Pro, Max, Team e Enterprise baseado em assentos, o limite de uso de 5 horas do Claude Code foi dobrado
  • Para contas Pro e Max, a redução de limite em horários de pico do Claude Code foi removida
  • Os API rate limits do modelo Claude Opus também foram significativamente elevados

Nova parceria de compute com a SpaceX

  • A Anthropic firmou contrato para usar toda a capacidade de compute do data center Colossus 1 da SpaceX
  • Com esse contrato, em um mês ela passa a ter acesso a mais de 300 MW de nova capacidade e a mais de 220 mil GPUs NVIDIA
  • A capacidade adicional melhora diretamente a disponibilidade para assinantes do Claude Pro e Claude Max
  • Este contrato se soma aos anúncios anteriores de expansão de compute da Anthropic
  • O treinamento e a execução do Claude usam vários hardwares de IA, como AWS Trainium, Google TPUs e GPUs NVIDIA
  • A Anthropic continua buscando oportunidades para colocar capacidade adicional online
  • Como parte do acordo com a SpaceX, a empresa também demonstrou interesse em colaborar com a SpaceX no desenvolvimento de vários GW de capacidade de compute de IA em órbita

Expansão internacional e infraestrutura regional

  • Clientes enterprise de setores altamente regulados, como serviços financeiros, saúde e governo, precisam cada vez mais de infraestrutura regional para atender exigências de compliance e residência de dados
  • Por isso, parte da expansão de capacidade da Anthropic está acontecendo internacionalmente
  • A parceria anunciada recentemente com a Amazon inclui capacidade adicional de inferência na Ásia e na Europa
  • As regiões que receberão capacidade adicional são escolhidas com cuidado, com foco em democracias que tenham estruturas legais e regulatórias capazes de sustentar investimentos em grande escala
  • Também é um critério importante que a cadeia de suprimentos de hardware, rede e instalações necessária para o compute seja segura

Custos de energia e investimento nas comunidades locais

  • A Anthropic anunciou recentemente o compromisso de arcar com aumentos na conta de luz do consumidor caso seus data centers nos EUA provoquem esse impacto
  • Como parte da expansão internacional, a empresa está avaliando estender esse compromisso para novas jurisdições
  • Também está avançando em formas de trabalhar com líderes locais para reinvestir nas comunidades onde as instalações estão localizadas

1 comentários

 
GN⁺ 1 시간 전
Comentários do Hacker News
  • A economia da IA parece caminhar nessa direção: inferência ficando barata, com aceleradores especializados chegando ao mercado e iniciando competição por preço
    Enquanto isso, treinamento continua caro, então Anthropic/OpenAI acabam indo mais para o lado do negócio de treinamento
    Os modelos viram unidades alugáveis ou ativos compráveis, e os usuários passam a rodá-los em hardware de inferência, alugar esse hardware ou possuí-lo
    Ou então pagam um prêmio para uma empresa que faça tudo isso por eles
  • A escala de 300 megawatts de nova capacidade e mais de 220 mil GPUs NVIDIA é realmente absurda
    Fico curioso se existe algum post de blog ou algo do tipo sobre que infraestrutura é usada só para a parte de inferência dos modelos mais recentes, como o Opus
    Imagino que seja segredo, mas se dá para usar o modelo diretamente no AWS Bedrock, talvez isso dê alguma pista
    • Provavelmente você estava falando da infraestrutura de computação, mas a infraestrutura de energia também é interessante
      Data centers às vezes operam de forma meio estúpida porque, para expandir a operação, velocidade importa mais do que custo
      Existem regulações das concessionárias e coisas como taxa de rampa para não ferrar a rede elétrica, e a explicação é que os data centers estão violando isso de forma séria
      Como a carga varia muito, eles usam geração a gás natural atrás do medidor, e eixos que deveriam durar 7 anos acabam durando só 10 meses por causa de partidas e paradas repetidas
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      Do lado da computação, existe o projeto de referência padrão da NVIDIA
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      Não examinei em detalhe, mas parece provável que haja rede Mellanox entre GPUs, muito código customizado em larga escala para dividir tensores nas GPUs, e código para mover ativações entre nós de GPU
    • Não é exatamente assim
      A Anthropic hospeda seus próprios modelos dentro do AWS Bedrock como um serviço gerenciado, e o cliente chama o LLM como chamaria qualquer outra API
      Qual infraestrutura da AWS atende essas requisições de API fica invisível
  • A Anthropic alugando o data center que o Elon construiu para o Grok parece um plot twist que ninguém conseguiria inventar
    • Do ponto de vista da SpaceX, é bem esperto
      Está transformando em uma fonte de receita bem grande, antes do IPO, um ativo construído para o Grok que só drenava dinheiro
    • Aquela fusão parecia claramente uma forma de agradar investidores enquanto encerrava a xAI discretamente
      Ao mesmo tempo, também serve para empurrar a dívida do Twitter para o público, então os contadores claramente sabem o que estão fazendo
    • É um plot twist que faz sentido para os dois lados
      A Anthropic consegue a computação de que precisa desesperadamente para continuar crescendo, o Elon aluga a computação que a xAI não conseguiu usar direito porque a demanda pelo Grok é baixa, e a SpaceX consegue registrar receita nos livros para o IPO
      A frase “vamos adicionar capacidade de forma cuidadosa em cooperação com democracias que tenham estruturas legais e regulatórias para sustentar investimentos dessa escala” traduzida para a linguagem real significa algo mais próximo de “vamos priorizar lucro acima de tudo”
      Elon é um sujeito de extrema direita que apoiou Trump, e Trump também não é exatamente muito democrático, mas o que isso quer dizer é que estamos precisando muito mais de dinheiro
      Parece também uma tentativa de fazer esquecer que a xAI recebeu dinheiro de governos não democráticos do Oriente Médio, e a Anthropic provavelmente compraria até computação chinesa se pudesse vender modelos com isso
  • A parte de dentro de um mês é a que mais derrete o cérebro
    Data centers não são equipamentos plug and play com especificações bem escritas e interfaces padrão internacionais
  • A frase “como parte deste acordo, manifestou interesse em trabalhar com a SpaceX no desenvolvimento de vários gigawatts de capacidade de computação de IA em órbita” sugere uma de duas coisas: ou a Anthropic leva esse projeto espacial mais a sério do que o público em geral, ou publicar essa frase era condição do acordo para conseguir computação
    • Concordo 100% com a hipótese de que publicar essa frase era condição para conseguir computação
    • A Anthropic precisa de toda computação possível
      Se o Elon quiser construir um data center orbital, a Anthropic vai rodar modelos lá com prazer
      Não há muito motivo para duvidar que o Elon possa construir um data center orbital; a questão é se isso tem viabilidade econômica comparado com soluções em terra
    • Não acho que computação espacial vá dar certo, mas certamente dá para dizer “se vocês oferecerem isso por um bom preço depois, compraremos com prazer”
      Se funcionar, funcionou; se não, não funcionou
    • Parece só bajulação a quem está no poder
      Como parte de um acordo para conseguir acesso a data centers terrestres, estão enfeitando uma computação orbital obviamente fantasiosa como se fosse algo maior do que é
      Consigo imaginar algo assim existindo um dia, mas, como o FSD, não parece nem um pouco perto de se concretizar
      O custo de dizer isso é quase zero, e depois dá para inventar uma desculpa dizendo que o interesse sumiu
      Se existe algum custo, é só um pouco de reputação
    • A maioria dos CEOs de big tech já falou esse tipo de coisa em algum momento
  • O data center Colossus 1 usa energia ilegalmente, polui o ar em áreas pobres perto de Memphis e pode até contaminar a água
    Ao criar demanda extra na rede elétrica, também pode aumentar o risco para os moradores ao provocar apagões em larga escala durante eventos climáticos extremos
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    Então dá para colocar a Anthropic na lista de empresas que falam muito de segurança, mas na prática priorizam lucro acima da segurança
    • A palavra ilegalmente aqui é forte
      Até o link da Wikipédia incluído diz que pode haver nuances relacionadas a permissões, mas eu não vi nada ali que sustente a alegação de que a energia é “ilegal”
    • Não entendo como um data center contaminaria a água
      Eles não fabricam produtos químicos nem fazem esse tipo de coisa
    • Nem toda alegação impressa é verdadeira
      É preciso ser muito cético com esse tipo de acusação, especialmente quando há empresas muito capitalizadas envolvidas, porque só alegações de danos “plausíveis e persistentes” já podem levar a processos ou pressão por acordo
    • Pesquisando, parece que a maioria dos data centers quase não paga imposto estadual sobre a receita gerada por aquele data center
      Se isso for verdade, é uma enorme brecha tributária, e não surpreende que haja tanto investimento de capital em data centers
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • Se eles não dobrarem também o limite semanal, dobrar o limite de velocidade de 5 horas é puro marketing
    Só significa que você pode atingir o limite semanal em 3 dias em vez de 5
    • Nunca cheguei nem perto do limite semanal, mas bati no limite por hora com frequência
    • Depois que subi para o plano de $100, acho que não bati em nenhum dos dois limites uma vez sequer nos últimos 5 meses
      Nas semanas em que uso bastante, costumo usar por mais de 6 horas por dia de forma consistente
      Mas sou bem rigoroso em manter as sessões sempre abaixo de 200 mil a 250 mil tokens
    • Pessoalmente, eu uso a assinatura básica do Claude Code, mais para relaxar codando 1 ou 2 horas à noite nos dias úteis ou no fim de semana
      Uso entre 3 e 5 sessões por semana
      Quando faço algo mais complexo, gasto a janela de 5 horas rapidinho e isso é frustrante, mas ainda não cheguei ao limite semanal
      Acho que tem bastante gente no mesmo caso que eu
    • Exato, o fator limitante real é o limite semanal
      Se você realmente apertar o uso, dá para estourar até o limite semanal do plano Max de $200 em um único dia
    • Ainda usando teimosamente o Opus 4.6, no meu fluxo de trabalho consigo queimar cerca de 10% do uso semanal dentro de uma janela de 5 horas
      Na minha cabeça, transformo o uso semanal em cota diária, algo como uns 14% por dia, então tento usar menos no começo da semana e gastar com mais liberdade no fim
      Aí acabo passando os dois últimos dias pensando em como consumir o uso que guardei
      A janela de 5 horas torna isso mais difícil, e no último dia da semana eu fico tentando enfiar 10% a cada janela de 5 horas enquanto estou acordado, o que eu odeio
      Quero trabalhar quando sou mais produtivo, não quando uma janela de tempo absurda manda
      Não quero pensar coisas como “acho que vou usar mais o Claude às 11h, então preciso mandar uma mensagem idiota para o Haiku às 7h30 para começar a janela de 5 horas e poder passar para a próxima às 12h30”
      Então essa mudança é bem-vinda, mas ainda é 100% um alívio parcial de um problema criado por eles mesmos, enquanto fingem estar fazendo um favor ao usuário
      Entendo a intenção de reduzir o uso em horários de pico, mas ainda assim acho isso ruim
  • Estão dizendo que vão dobrar o limite de velocidade de 5 horas do Claude Code nos planos Pro, Max, Team e Enterprise com cobrança por assento, remover a redução de limites em horário de pico para Pro e Max, e também aumentar bastante os limites de taxa da API para o modelo Claude Opus
    No fim, parece que o Elon desistiu da xAI e foi para o lado de vender computação
    • Não sei se isso está ligado ao mesmo data center, mas esse anúncio saiu apenas algumas horas depois de vários modelos recentes do Grok terem sido descontinuados após um aviso curto
      O Grok 4.1 Fast era a forma mais barata de fazer pesquisa no X, mais barato até que a API do X, e sumiu em 15 de maio
      https://docs.x.ai/developers/models
      Pode ser uma liberação de computação para vender
    • Ainda não dá para cravar que o Elon desistiu da xAI
      Só que modelos open source como Gemma e Qwen estão melhorando rápido demais, a ponto de até a Anthropic ver risco real de longo prazo para o valor dos próprios modelos e ferramentas
      Basicamente, se eu fosse Anthropic ou xAI, tentaria gerar receita em todo lugar possível e ver o que sobrevive
      Não faz sentido buscar domínio monopolista quando tudo está tão volátil
    • Os detalhes são secretos
      Pode ser só tempo de GPU que estava sendo desperdiçado, mas a Anthropic também pode ter feito uma oferta difícil de recusar
      Especulando, se foi uma oferta irrecusável para o Elon, talvez tenha envolvido a Anthropic fornecer dados de treinamento ou tecnologia em alguma medida
    • Sinceramente, pode até ser uma boa ideia
      É difícil ver a xAI como um laboratório sério de pesquisa
    • Não acho que seja desistência
      Eles conseguem informações internas sobre como o Claude funciona e também um fluxo gigantesco de dados de uso do Claude
      Parece provável que tudo isso acabe alimentando o desenvolvimento do Grok no futuro
  • Queria ter sabido disso dois dias antes
    Passei alguns dias usando o Claude Code e batendo no limite o tempo todo, então fui tentar fazer upgrade para o Max, mas no fluxo de upgrade exigiram verificação de identidade via Persona
    Achei ok e tentei cancelar o upgrade, mas bloquearam completamente até meu acesso ao Claude Code do plano atual, e não havia como desbloquear sem concluir a verificação de identidade
    Eu nunca faria isso, e foi uma experiência realmente horrível
    Pelo lado bom, isso me fez descobrir que o Deepseek é muito mais barato e, em trabalho de engenharia reversa, está em um nível parecido
  • Acabei cancelando a assinatura por causa dos limites e mudei meu fluxo de trabalho inteiro para o pi de forma totalmente agnóstica a modelos
    É uma boa notícia, mas não vou voltar
    A Anthropic cometeu erros demais em um período curto demais e me perdeu
    O Opus foi substituído por GPT 5.5, DeepSeek, Kimi e Qwen, todos usando meu único harness e permitindo trocar de modelo com facilidade
    Se algum deles começar a agir do mesmo jeito, eu troco na hora