- A OpenAI está diante da necessidade de captar mais de US$ 400 bilhões nos próximos 12 meses
- Esse valor é para cumprir planos de expansão maciça, incluindo construção de data centers em grande escala, contratos de chips de IA e custos de pessoal e despesas comerciais
- A construção de um único data center é estimada em US$ 5 bilhões a US$ 60 bilhões, enquanto a OpenAI mira 33 GW até 2029 e 250 GW até 2033 em capacidade
- A velocidade e a escala dessa expansão ultrapassam os limites globais de finanças e infraestrutura, ficando próxima de algo quase impraticável
- Se seguir o plano atual, a OpenAI pressionará fortemente o mercado de capitais mundial ao mesmo tempo que gera riscos graves para investidores e para todo o setor
Visão geral
- Para viabilizar os planos ambiciosos de construir data centers em grande escala, firmar contratos de chips e arcar com custos de manutenção no futuro, a OpenAI precisa levantar recursos em velocidade sem precedentes
- Somente no próximo ano seriam necessários pelo menos US$ 400 bilhões; isso significa um peso significativo não só para a própria OpenAI, mas para todo o sistema financeiro global
- Há discordância com a corrente que trata como "racional e exequível" a divulgação recente de colaboração de chip customizado de 10 GW e promessas de implantação de vários GW
- Defende-se ajustar o custo de implantação de 1 GW para US$ 50 bilhões e incluir o custo total com prédio, infraestrutura de energia e networking
- Assim, ao considerar um lead time mínimo de 2,5 anos e capacidade de potência reserva, o cronograma fica praticamente impossível
- O motivo de elevar a estimativa anterior (US$ 32,5 bilhões/GW) para US$ 50 bilhões/GW é a necessidade de corrigir subestimativas de preço de chips, rede, infraestrutura complementar e participação de terceiros
- Entre os fatores de alta estão pressupostos de preço e quantidade de GB200/Blackwell, suprimento da Lancium e escala de 8 alas/50.000 GPUs
Revisão da linha do tempo no segundo semestre de 2026
- Broadcom: anunciou meta para tape-out de chips de inferência, produção em massa e implantação de 1 GW no segundo semestre de 2026
- Está com local indefinido e sem início de obra, e a necessidade de 1,2~1,3 GW de potência total por 1 GW de TI aumenta muito a chance de conflito de cronograma
- AMD: plano para 1ª implantação de 1 GW MI450 no segundo semestre de 2026
- Para concluir na data, devem ocorrer antes o suprimento do ano anterior, contrato de energia e início de construção
- NVIDIA: plano para implantação de 1 GW Vera Rubin no segundo semestre de 2026
- Da mesma forma, sítio, energia e construção já precisam estar em andamento para encaixar
- Mesmo em cenário conservador, seriam necessários mais de US$ 100 bilhões, e o pré-pagamento de caixa ou um consórcio de grande escala é inevitável
Ceticismo sobre as alegações de demanda, tráfego e capacidade
- Há possibilidade de dupla contagem no número de 800 milhões de MAUs semanais, e o plano de 250 GW e US$ 10 trilhões até 2033 é considerado irrealista
- Considerando a estimativa de 55 GW de carga de TI de data centers globais em 2024, não há precedente para uma empresa única expandir 5 vezes em 8 anos
- Em termos de força de produto, com o desempenho fraco e as limitações recentes de GPT-4.5, GPT-5 e Sora 2, fica em dúvida o valor gerado frente ao enorme gasto em P&D
- Ele cita análise externa de que, nos gastos de US$ 11 a US$ 12 bilhões em P&D em 2024~2025, os custos de treinamento de modelos efetivamente em uso foram limitados
Itens de capital necessários nos próximos 12 meses (estimativa do autor)
- 1 GW para a Broadcom: cerca de US$ 50 bilhões
- 1 GW + compra de chips para a NVIDIA: cerca de US$ 50 bilhões
- Custos de computação de 2026 (via Oracle·CoreWeave·Azure·GCP): cerca de US$ 40 bilhões
- 1 GW + compra de chips para a AMD: cerca de US$ 50 bilhões
- Desenvolvimento de dispositivos de consumo: cerca de US$ 500 milhões
- Parceria em projeto de CPU baseada em ARM: cerca de US$ 1 bilhão
- Ajuste de OPEX para vendas, marketing e salários: cerca de US$ 10 bilhões
- Total de US$ 391,5 bilhões ≈ US$ 400 bilhões, com necessidade de grande desembolso de caixa antes de fevereiro de 2026
Restrições financeiras e riscos estruturais
- A partir da estimativa de despesa de US$ 6,7 bilhões em P&D e US$ 2 bilhões em S&M no primeiro semestre de 2025, confirma-se o fluxo contínuo de saída de caixa
- No primeiro semestre de 2026, com US$ 9,2 bilhões gastos em computação e US$ 4,3 bilhões de receita estimados, a estrutura é de margem negativa
- Riscos de governança e marcos contratuais ligados ao prazo de transição de sem fins lucrativos para com fins lucrativos e à condição de US$ 20 bilhões do SoftBank, entre outros
- Também pesa a condição de conversão de dívida de outubro de 2026 da rodada de US$ 6,6 bilhões de 2024
Realismo de acordos de infraestrutura, como Oracle e CoreWeave
- Para cumprir o contrato de US$ 300 bilhões por 5 anos com a Oracle, seria necessário 4,5 GW de TI, segundo estimativas
- A Stargate Abilene possui hoje apenas 200 MW de energia garantida, ou cerca de 130 MW de TI ao considerar reserva de potência
- O terreno Shackelford 1.4 GW está em início de construção; com meta de primeira ala em H2 2026, a operação completa precisaria ser ajustada para após 2027
- Considerando que a CoreWeave falou em até 900 MW no fim de 2025, o descompasso com “operar 2 GW em 2025” é grande
Limites do mercado de capitais, cadeia de suprimentos e rede elétrica
- O capital necessário ultrapassa os US$ 368 bilhões de VC global de 2024, e é clara a limitação de absorção mesmo em comparação com operações de private equity e comércio global
- Existem gargalos simultâneos em transformadores, aço elétrico, infraestrutura HV, refrigeração, margem de reserva do sistema elétrico e mão de obra qualificada, fazendo inevitáveis os conflitos de cronograma
- Essas sucessivas divulgações têm forte caráter de narrativa para impulsionar ações e acordos, e a conclusão é de baixa viabilidade de execução
Conclusão
- Com restrições reais de tempo, capital, recursos, regulação e energia em múltiplas frentes, fica extremamente difícil cumprir os compromissos públicos até 2026
- A captação de US$ 400 bilhões nos próximos 12 meses também encontra limite significativo sob a ótica da capacidade de absorção do mercado de capitais global, com possibilidade de expansão do risco de credibilidade se não for cumprida
- A essência é o descompasso entre a promessa inflada de capacidade e a demanda, força de produto e fluxo de caixa; sem realismo dos planos, ajuste de governança e redesenho da estrutura de captação é um alerta de insustentabilidade
1 comentários
Opiniões do Hacker News
Mesmo que a taxa de crescimento da OpenAI pareça impressionante, há a visão de que ganhar 100 milhões de usuários em apenas dois meses não significa que toda a humanidade vá usar esse serviço o tempo todo. Por outro lado, também dá para argumentar que, com esse ritmo de crescimento, existe potencial para que toda a humanidade o use de forma constante. Ainda assim, é preciso lembrar que a curva de crescimento pode seguir um formato em S, ou seja, não se trata de crescimento geométrico infinito
O fato de terem aumentado em 100 milhões em dois meses não prova que toda a humanidade precise disso o tempo todo. Popularidade e utilidade são coisas diferentes. Dados sobre o impacto do aumento do uso de LLMs em métricas como produtividade seriam mais convincentes. Na verdade, alguns estudos chegaram a mostrar queda de produtividade entre profissionais especializados. Ver estudo relacionado
Só recentemente eu mesmo passei a usar o ChatGPT como substituto de busca e para coisinhas pequenas. Como a busca tradicional anda tão ruim hoje em dia, parece uma luta entre um boxeador em má fase e um campeão de 70 anos. Se isso algum dia rodar no meu notebook, acho que pode virar uma ferramenta realmente útil
O gargalo da OpenAI primeiro mudou de GPU para energia. O próximo gargalo é o “ser humano biológico”. Também há a piada de que a OpenAI provavelmente vai encontrar uma forma de criar mais humanidade para manter a taxa de crescimento
No longo prazo, se uma IA razoavelmente útil vier embutida em uma ampla gama de produtos como navegadores, sistemas operacionais, smartphones e processadores de texto, o mercado de IA independente para o público em geral pode encolher bastante. Ferramentas especializadas, pesquisa de ponta e ferramentas de programação devem continuar tendo demanda, mas não acho que isso seja suficiente para criar uma empresa de trilhões
Na prática, só cerca de 5% das pessoas assinam pagando $20. Como VR e AR, se for grátis elas usam de vez em quando, mas não a ponto de pagar do próprio bolso. Acho que os LLMs já viraram commodity
O artigo em si também foi interessante, mas na prática a maior ameaça para OpenAI ou Anthropic são os modelos open source. Modelos como deepseek e llama 3 estão alcançando rápido, então fica a dúvida sobre qual seria o diferencial da OpenAI se for possível usar quase a mesma coisa por muito menos dinheiro, ou de graça na minha própria GPU. Pessoalmente, eu assino a OpenAI, mas sinceramente é pela conveniência, e tenho usado razoavelmente bem para verificação de matemática. Pelo preço, fico em dúvida se isso realmente pode virar um serviço essencial para empresas. Claro, a OpenAI reúne os melhores talentos e recebe investimento, então posso estar errado
Dizem que open source como deepseek e llama 3 estão alcançando rápido, mas treinar modelos grandes custa uma fortuna, e o que hoje é liberado como open source na prática só existe porque empresas com fins lucrativos estão aceitando prejuízo em nome do ecossistema open source. Fico pensando qual seria o plano se essas empresas resolverem “puxar a escada” em busca de lucro
O ponto que o autor quer defender é que é preciso olhar para os números reais com realismo. Só para encontrar pessoas para construir e operar data centers já leva bastante tempo. A tese é que o cronograma apresentado no artigo é inviável na prática
Muito dinheiro está sendo colocado no curto prazo, mas fica a dúvida de onde exatamente vem a demanda real, e quanto modelos de autoatendimento do tipo “rodar o llama diretamente na minha GPU” realmente contribuem para a receita. Tem algo estranho nisso
Para rodar deepseek, kimi ou glm rapidamente na minha GPU, eu precisaria de pelo menos mais de $50.000 só em hardware. Para chegar perto do desempenho da OpenAI ou da Anthropic, seriam necessários centenas de GB de VRAM rápida
As pessoas usam a OpenAI em sua maioria porque não entendem muito de TI. No mundo real, quase ninguém entre os usuários comuns usa bloqueador de anúncios. A OpenAI já se fixou no imaginário popular. Se tivesse enfiado anúncios como o Google, poderia ter consolidado uma posição ainda mais forte, mas escolher a economia de bolha e a fraude de investimento foi um erro de cálculo
Todo mundo precisa se acalmar. O Altman vai dar conta de tudo. Em 47 dias vai sair um produto chamado ChatGPT 6 Recurd e surpreender todo mundo, reciclando o modelo antigo em vez de lançar um melhor, além de comprar automaticamente 10 planos do ChatGPT 6 para funcionar muito melhor. Depois disso, vai atualizar cada vez mais rápido, aumentando o desempenho em 1% de forma recorrente. É fácil subestimar o crescimento hiper-geométrico. No começo de 2026, eles vão vender trilhões de licenças sem qualquer limite no número de clientes humanos. Altman já planejou uma moeda própria para tudo isso, um sistema de empréstimo automático e até negociação de futuros de compute. É um mundo totalmente novo. Um novo mundo chamado “Alt/World!”
Fico curioso por que os data centers são medidos em “gigawatts”. Por que não medir por desempenho computacional real, como flops? Na verdade, eu mesmo penso que daria para fazer um data center de “1 GW” com um único CPU 6502 e um monte de resistores
A razão é que capacidade elétrica e refrigeração são as maiores restrições na construção de data centers. O desempenho computacional muda muito com o tempo, e na prática 1 GW com chips de última geração como o GB200 equivale a cerca de 5 exaflops de compute, dependendo da precisão e de outros fatores
Também tenho ganhado experiência recente, ainda que em pequena escala, com operação de hardware/data center, e o que senti é que switches, firewalls e storage consomem tanta energia e refrigeração quanto as GPUs. Depois de certo porte, a principal restrição não é mais compute máximo, Hz ou GB, mas quanta energia você consegue colocar no sistema e quanto calor consegue tirar para fora. Por exemplo, há projetos em portos que consomem excedente de energia solar com grandes bancos de resistores. O problema é conectar com segurança à rede de alta tensão e dissipar o calor rapidamente
Como a unidade de desempenho computacional varia conforme o hardware e a carga de trabalho, uma medida universal é praticamente impossível. Dá para ver a capacidade elétrica como uma aproximação da capacidade máxima de compute possível naquele momento. Isso também cobre variáveis como região e método de refrigeração
Fazendo conta de guardanapo, 1 GW daria para tocar cerca de 1,43 bilhão de chips 6502
Na prática, a unidade ser “potência” faz sentido porque ela é a unidade final de todos os custos, como eficiência computacional, investimento em equipamento e escalabilidade
Quero destacar que, mais do que o capital inicial para construir data centers, a verdadeira limitação da indústria são os fornecedores de energia elétrica. Hoje a rede elétrica da América do Norte está muito apertada em oferta. É preciso investigar a fundo quanta energia excedente realmente existe para grandes data centers usarem e quando seria possível expandi-la. Construir usinas é um negócio extremamente lento. Muitos planos de investimento em data centers parecem partir da premissa de que a capacidade elétrica vai aparecer “por mágica” ou de que não existe concorrência por ela
A afirmação de que “a OpenAI vai despejar $400 bilhões no próximo ano” tem um problema. Na prática, não é a OpenAI que faz esse investimento diretamente; empresas como a Oracle constroem os data centers e a OpenAI paga aluguel. Como são contratos de locação, ela não começa colocando todo o custo de construção na mesa. Por exemplo, a OpenAI deve passar a pagar aluguéis anuais na casa de $30 bilhões a partir de 2027/2028, crescendo gradualmente ao longo de 5 anos. NVIDIA e AMD também recuperam seus investimentos conforme marcos e adoção de chips, e na verdade os fornecedores estão “apostando” no crescimento da OpenAI ao oferecer crédito. Pode ser uma estrutura muito incomum e instável, mas dizer que ela precisa ter $400 bilhões em caixa imediatamente é uma lógica errada. A questão real é se a receita da OpenAI pode crescer para pelo menos $60–70 bilhões até 2028–2029. A tese não se sustenta; o risco está mais no cronograma de execução e no progresso do crescimento de receita. Links de referência: CNBC - data center da OpenAI, w.media - contrato de locação com a Oracle, CNBC - parceria com a Nvidia, TechCrunch - fornecimento de chips da AMD
Ed Zitron, como analista, faz muitas alegações erradas e erros factuais. Ele também tratou em um post da insistência de que o “custo de inferência” está subindo texto relacionado
O WAU (usuários ativos semanais) da OpenAI está crescendo em ritmo anualizado de cerca de 122,8%, mas isso caiu em relação aos 461,8% de dez meses atrás. Se o crescimento estabilizar, ela pode chegar ao fim de 2028 com receita anual máxima de $104 bilhões e 6,4 bilhões de WAU. Não dá para garantir os números, mas Oracle e Nvidia basicamente precisam sustentar suas próprias ações com base nessa hipótese. Na prática, como a desaceleração do crescimento está em cerca de 20% a cada dois meses, é difícil esperar mais do que 1,2 bilhão de WAU por volta desta época no ano que vem e 1,4 bilhão no ano seguinte. Ainda são números inferiores aos de Google e Facebook
Como a OpenAI está “se segurando” via locação, na prática o risco vai sendo transferido cada vez mais para investidores de posição subordinada, ou mesmo para o público e cotistas de fundos de pensão ver Turtles all the way down
Ao ver a polêmica da Sora 2 com animação, ficou confirmado para mim que uma temporada média de anime televisivo ou um filme pode ser produzido por algo entre $10 milhões e $20 milhões. Não sei qual seria o custo real de desenvolvimento do Sora 2, mas se estivermos falando de centenas de bilhões ou trilhões, daria para fazer milhares dessas animações. Isso foge um pouco de LLM, mas no fim fico em dúvida se, mesmo que a IA substitua profissionais especializados, o ganho sobre o investimento seria realmente razoável
Na verdade, acho que o custo de desenvolvimento do Sora 2 seria muito menor do que alguns bilhões
Fico em dúvida se o Sora 2 realmente consegue produzir um “show” completo. Sempre ouvi falar de vídeos curtos; para criar uma série formal, ainda parece faltar um salto técnico
Ferramentas como Sora e Google Flow provavelmente permitirão que amadores produzam conteúdo com qualidade profissional a baixo custo. Fazer milhares de animações não é algo fora do campo do possível
Acho que investimentos gigantescos assim só fazem sentido se forem compensados por algo além do ROI de um chatbot comum
Fico curioso sobre quão rapidamente tanto dinheiro poderia de fato ser investido em usinas, data centers, projeto e fabricação de silício, se a indústria de infraestrutura também vai passar por uma forte correção depois de uma bolha brusca, ou se realmente veremos uma transformação de nível revolução industrial. Há até proposta de cofundar uma startup de infraestrutura para sistemas embarcados de alta segurança
Há a pergunta de por que a Anthropic não teria uma necessidade de capital parecida
A Anthropic é mais conservadora ao divulgar custos. Ed Zitron está acompanhando de perto os custos atuais com GCP
A discussão é sobre a construção de “AGI”, então é algo separado do serviço atual da Anthropic. Além disso, não há garantia de que inteligência aumente indefinidamente com mais compute
Na prática, a Anthropic provavelmente também precisaria de investimento semelhante. Só que o autor parece focar na OpenAI
Se o crescimento continuar, a Anthropic também vai precisar de grandes investimentos
A Anthropic aparentemente usa TPU de forma mais agressiva em casos de overflow. A recente queda de desempenho do Claude teria sido causada por bugs relacionados a TPU e diferenças de implementação, e isso permitiu inferir em certa medida como eles operam com uma mistura de Nvidia e TPU. Ainda não parece haver relatos de que a OpenAI tenha distribuído cargas na infraestrutura do Google
Também gostaria de saber como o modelo de capex de data centers poderia mudar se o objetivo fosse 100% de utilização e a eficiência do capex fosse mais importante do que uptime de nó ou disponibilidade. Acho que, dependendo de como a NVidia ajuste suas margens, ainda existe espaço para os custos caírem para uma ou duas ordens de grandeza. Se a OpenAI construir data centers menos confiáveis que o padrão e em locais baratos, isso me parece um pouco mais plausível. Ainda assim, há grande chance de a OpenAI despejar mais de $40 bilhões em data centers até o ano que vem. Data centers tradicionais são extremamente sensíveis à disponibilidade, mas nessa escala imagino que a OpenAI não vá se importar tanto com uptime de rack ou uptime da instalação como um todo