- O capex de data centers de IA passou a representar uma fatia sem precedentes da economia dos EUA e da economia global
- O investimento em data centers ligados à IA nos EUA em 2025 chega a cerca de 2% do PIB, com uma contribuição estimada de 0,7% para o crescimento do PIB
- Esse volume gigantesco de investimento está sendo deslocado de manufatura, infraestrutura e outros investimentos de venture capital já existentes para se concentrar em IA
- Esse fenômeno está se espalhando com rapidez comparável aos booms de investimento em ferrovias e infraestrutura de telecomunicações, e já superou o antigo pico de investimento em infraestrutura de telecom
- Como resultado, o investimento em data centers de IA ao mesmo tempo suaviza a desaceleração econômica e provoca esgotamento de capital em outros setores, grandes reestruturações e queda no emprego
Updates & Erasures
- Em meio à continuidade da polêmica sobre a reforma do edifício do Fed nos EUA, seguem as críticas aos gastos públicos
- Em artigos recentes, autoridades do governo vêm demonstrando insatisfação com a reforma do prédio do banco central
- Entre a liderança de Powell no Fed e a reforma do prédio, o clima é de sátira e descontentamento
Honey, AI Capex Ate the Economy
Situação atual do capex em data centers de IA
- A escala dos investimentos em data centers de IA ficou tão grande que até Xi Jinping, da China, alertou governos locais para terem cautela com investimentos em IA, computação e novas indústrias de energia
- Só na China, já há mais de 250 novos projetos de data centers, enquanto o entusiasmo por investir em infraestrutura de IA se espalha pelo mundo
- No caso dos EUA, com estimativas baseadas na receita de data centers da Nvidia, o capex de IA em 2025 deve atingir algo em torno de 2% do PIB dos EUA, e a contribuição da IA para o crescimento do PIB deve chegar a 0,7%
Análise do piso do volume de investimento em IA
- O PIB dos EUA projetado para 2025 é estimado em $25T
- Receita anual da Nvidia com data centers: cerca de $156.4B, dos quais 99% estão relacionados à IA
- Participação da Nvidia no capex total de data centers: 25~35%
- Impacto econômico (multiplicador): aplicando 1,5 a 2 vezes, o capex anual total de data centers é estimado em cerca de $520B
- Antes de 2022, o capex de IA representava menos de 0,1% do PIB, mas em apenas 3 anos cresceu mais de 10 vezes
- Mesmo em comparação com grandes investimentos históricos em infraestrutura, como ferrovias e telecom, sua escala continua aumentando fortemente
- Em especial, já ultrapassou o pico de investimento em telecom no período da bolha das pontocom e continua em trajetória de alta
- O valor investido em data centers equivale a cerca de 20% do auge das ferrovias no século XIX, mas subiu de forma abrupta em um período curto
De onde vem o capex de IA
- As fontes de financiamento para data centers e infraestrutura de IA são as seguintes
- Fluxo de caixa interno (Microsoft, Google, Amazon, Meta e outras grandes empresas de tecnologia)
- Emissão de dívida (títulos e afins, com participação crescente)
- Ações e ofertas subsequentes
- Venture capital/private equity (startups de infraestrutura de IA como CoreWeave e Lambda)
- SPV, leasing e financiamento alternativo lastreado em ativos (como no caso da Meta)
- Compromissos de consumo de nuvem (principalmente por hyperscalers)
- O foco dos investimentos em IA está reduzindo o fluxo de capital para outros setores
- O capital de venture capital quase não flui para áreas fora da IA
- O VC fora de life sciences hoje, na prática, está operando quase exclusivamente em torno de investimentos em IA
- Empresas de cloud computing estão concentrando investimentos em IDCs focados em GPU, em vez do negócio tradicional de nuvem
- Em grandes empresas como Amazon e Microsoft, o aumento dos custos com data centers de IA vem levando a cortes de pessoal e reestruturações
- O múltiplo preço/lucro das empresas listadas ligadas à IA disparou, enquanto empresas de outros segmentos têm mais dificuldade para captar capital
- Com os recursos se concentrando nas empresas de IA, manufatura e outras infraestruturas ficam relativamente sem capital
Mudanças na estrutura econômica causadas pelo investimento em IA
- O boom de investimentos em IA está acelerando a retração de investimentos em outros segmentos de infraestrutura e a reestruturação industrial
- Isso lembra o precedente da antiga bolha de infraestrutura de telecom, que foi seguida por forte queda em outros investimentos em infraestrutura
- Também há preocupação de que essa febre de investimentos em data centers de IA provoque efeitos negativos como esgotamento de capital fora da IA, grandes reestruturações e redução de empregos
Solucionando um mistério econômico
- Recentemente, apesar de fatores de instabilidade como disputas comerciais, incerteza política e risco burocrático, era um mistério o fato de os temores de recessão parecerem relativamente contidos
- A razão é que está em andamento um enorme "pacote privado de estímulo" liderado pelo setor privado na forma de investimentos em data centers de IA
- Isso já superou o pico de investimento em telecom da bolha das pontocom e se aproxima do pico de investimento em ferrovias no século XIX
- Fazendo as contas ao contrário, sem o investimento em data centers de IA, é muito provável que o crescimento do PIB dos EUA no 1º trimestre de 2025 tivesse caído para –2,1%
- Como resultado, o capex de IA está compensando a desaceleração econômica e, na prática, ajudando a ocultar fragilidades da economia
Conclusão
- A explosão dos investimentos em IA e em data centers em um período tão curto é um momento excepcional até na história econômica
- Independentemente de ser vista de forma positiva ou negativa, a velocidade do avanço tecnológico e da alocação de capital em IA e data centers é anormalmente alta
- Data centers de IA não são uma infraestrutura usada por décadas ou séculos como ferrovias ou estradas; eles se caracterizam por vida útil curta e depreciação acelerada
- Com investimentos gigantescos alinhados a esse ciclo tecnológico de curto prazo, avançam em paralelo a retração dos investimentos em outros setores, demissões em larga escala e a desaceleração do crescimento fora da IA
- O capital está sendo rapidamente realocado para o setor de TI a partir de venture capital e orçamentos internos, e com isso alguns setores sofrem os efeitos de esgotamento de investimento de longo prazo e grandes reestruturações
- Mesmo antes de a IA ser amplamente usada de forma efetiva, há a situação irônica de que a queda no emprego e a reestruturação industrial já estão avançando rapidamente
Rougher Notes
2 comentários
Pelo resumo dos comentários, parece que neste momento estão achando que 2% não é tanto assim, mas acho que precisamos pensar em quanto isso vai dar em 2026 se continuar aumentando nesse ritmo. Se a AGI não for algo possível no curtíssimo prazo, acho que até 2026, ou talvez até 2027, vai ficar realmente muito confuso por causa do confronto entre otimistas e pessimistas.
Opiniões do Hacker News
A fala de Xi Jinping parece ter vindo de uma matéria exagerada do FT. O artigo original em chinês tem um tom bem mais moderado. IA e EVs não foram temas centrais da reunião ou do relatório, apenas foram mencionados. O alerta de Xi Jinping é sobre a “competição por feitos políticos”, novamente observada nos setores de IA e EV. Quando o governo central define metas de política industrial, governos locais se articulam com empresas para tocar “projetos” de vitrine, e no fim a maioria para depois de construir só as fábricas. Isso já é uma grande dor de cabeça para o governo central há muito tempo, e o ponto principal do alerta de Xi é que o mesmo problema existe também nas áreas de IA e EV. Artigo original: https://paper.people.com.cn/rmrb/pc/content/202507/17/content_30088242.html
1,2% do PIB não parece tão extremo assim. Comparado com outros projetos inovadores, é um nível bem mais baixo. Por exemplo, o programa Apollo foi 4%, as ferrovias 6%, o estímulo econômico da covid 27% e os gastos de defesa da Segunda Guerra chegaram a 40%
Minha reação inicial também é parecida. 1,2% não parece tanto assim. Parece só a imprensa puxando um título sensacionalista. Talvez eu ficasse mais preocupado se víssemos números como consumo de água e energia. Fugindo um pouco do tema, cerca de 9% do PIB dos EUA vem de serviços financeiros, e pessoalmente acho esse um número mais preocupante
Em relação ao PIB total, parece pouco, mas isso é porque nosso PIB em si é enorme. Esse valor de 1,2% equivale ao PIB inteiro da Noruega. Parece pouca coisa, mas é muito dinheiro mesmo comparado aos 3,4% de gastos militares deste ano
Acho que agora não devemos olhar só para o número, mas para a tendência da mudança, o movimento e o significado dessa inclinação. O capital está migrando de várias áreas para IA, e a duração do valor dos ativos também é diferente (ferrovias duram décadas ou séculos; IA, quem sabe quantos anos). Há também o ponto do autor de que “sem o investimento em datacenters de IA, a queda do PIB no 1º trimestre teria chegado a –2,1%”
Isso mal começou e já faz só 2 anos! 1,2% já é um número enorme. O simples fato de esse tipo de comparação ser possível já é surpreendente
O ponto central do artigo é a pergunta se um investimento tão gigante pode ser justificado. Rebater dizendo só que é alguns % do PIB e portanto está tudo bem é fugir da questão principal
As ferrovias distribuíram capital pela sociedade e levaram a aumentos de riqueza de longo prazo para muita gente. Já a IA tende a concentrar capital nos já ricos e pode acabar trazendo redução de riqueza de longo prazo para a classe média. Se o poder de compra da população cai, isso não ajuda o crescimento econômico, então esse boom de investimento em IA é questionável
Espero que, quando acabar o efeito manada em torno de IA e datacenters, essa capacidade possa ser usada em algo mais útil, como descoberta de novos medicamentos
Nos anos 1990, no boom das pontocom, também instalaram rede de fibra óptica em excesso sem critério, e depois da bolha esses ativos foram vendidos a preço de banana, permitindo que novas startups montassem redes nacionais a baixo custo. Esses “restos” das bolhas têm servido como combustível barato para a próxima geração de empresas. Os datacenters provavelmente seguirão esse padrão: mesmo que haja excesso agora, depois certamente serão usados para novos fins
Ainda sobre modas, não entendo por que tanta gente fica obcecada com a ideia de que IA vai substituir 100% dos empregos de desenvolvedores e outros trabalhadores de colarinho branco. Parece uma fantasia estranhamente apocalíptica e niilista, e eu não compro esse hype. Queria saber se sou só eu
Em escala global, nem as capacidades atuais dos LLMs (grandes modelos de linguagem) foram plenamente adotadas. Mesmo que não consigamos criar algo mais inteligente a partir do nível atual, ainda assim é provável que, nos próximos anos, a automação de tarefas repetitivas continue em vários setores
Fico surpreso que sempre apareçam pessoas aqui minimizando IA e seu avanço imparável. Só pelos exemplos que já vimos — xadrez, Go, jogos de estratégia, previsão de estrutura de proteínas etc. — fica claro que praticamente qualquer problema que possa ser formalizado e verificado acabará podendo ser resolvido por IA. ASI (superinteligência artificial) especializada por domínio também me parece apenas uma questão de tempo. Recomendo fortemente que todos leiam The Bitter Lesson e Verifier’s Law
Não vamos poder. No fim, vão cortar engenheiros para bater meta e também eliminar qualquer capacidade excedente
Eu gostaria que fosse obrigatório que todo novo datacenter fosse construído com energia renovável. O custo adicional não deve ser tão grande em relação ao custo total, e empresas desse porte certamente conseguem arcar com isso. Talvez uma política assim até impulsione o avanço da próxima geração de pequenos reatores modulares
Muitas grandes empresas já têm interesse em tecnologia nuclear de pequeno porte para alimentar datacenters. O maior problema é encontrar locais na rede elétrica capazes de sustentar esse tipo de instalação. Se você conversar 30 minutos com alguém do setor, no fim o tema central vira energia nuclear. Seria um grande efeito positivo se essa moda, movida por tanto capital, durasse o suficiente para instalar reatores de urânio de verdade no campo. Espero que surja infraestrutura física excedente como aconteceu com ferrovias e fibra óptica. Os antigos “barões ladrões” pelo menos deixavam infraestrutura física; os booms recentes quase não deixaram nada
Na Europa, todos os novos datacenters já são obrigados a usar energia renovável. Nos EUA, Google, Microsoft, Meta e AWS já assinam os maiores contratos de compra de energia renovável do mundo. Só a MS investiu cerca de US$ 20 bilhões. O gargalo nos EUA não é falta de demanda, mas questões de licenciamento e zoneamento que travam a instalação de renováveis. Só a capacidade esperando para entrar na rede já soma 100 GW, algo como 10% de toda a eletricidade dos EUA. Pedir mais não resolve por si só um gargalo que leva tempo. Uma exceção é xAI/Grok, que opera grandes clusters 100% a gás. Em locais com energia e refrigeração precárias, usam 35 turbinas a gás em trailer e mais de 50 caminhões refrigerados. Acho isso extremamente ineficiente e muito ruim para o meio ambiente, e esse tipo de sistema deveria ser proibido
Nos EUA, mesmo sem obrigação, o mercado já está mudando. Em 2024, 94% da nova capacidade de geração, e em 2025, 93%, é de renováveis ou armazenamento em baterias, e a tendência deve continuar. Novas usinas fósseis basicamente só adicionam um pouco de gás natural, muitas vezes convertendo antigas usinas a carvão. Os planos de expansão de novo gás natural também estão no menor nível desde o boom do shale. As renováveis já venceram
Datacenters preferem energia firme para evitar que ativos caros fiquem ociosos. Solar e eólica são intermitentes. Planejar novas usinas a gás leva anos. E garantir mais de 12 horas de bateria para compensar o sol no inverno também não sai de graça
Seria bom se o hardware em si também fosse renovável
Não faz sentido argumentar que muito do dinheiro gasto em CapEx de IA saiu de outras indústrias, deixando-as “passando fome” por menos investimento, e ao mesmo tempo afirmar que esse dinheiro se multiplica no PIB total. Se foi uma realocação de recursos, o efeito multiplicador deveria ser aplicado dos dois lados igualmente
O argumento principal do texto parte da suposição de que a economia é um jogo de soma zero. Mas claramente não é. O fato de o investimento estar correndo para IA não significa que ele poderia ser redirecionado imediatamente para qualquer outra área na mesma medida. O capital está indo para IA porque se espera que haja valor ali. Pessoalmente, acho que esse valor será muito maior do que o das ferrovias. Pode haver bolha ou sobreinvestimento em algum hardware ou em certas regiões, mas ainda não me parece a situação de “prestes a desabar” de que o autor fala
Como a economia sempre funciona de forma complexa, também não dá para olhar isso com otimismo excessivo. Como o autor aponta, no curto prazo é verdade que o investimento em IA reduz o investimento em outras áreas
Mesmo que esse grande investimento acabe excessivo, é provável que no longo prazo ele se torne útil. A infraestrutura de internet foi inicialmente construída em excesso por causa de pets.com, mas depois surgiram os verdadeiros “killer apps”, como Amazon, YouTube e Zoom, e aquele investimento errado acabou virando base da sociedade futura. O investimento atual em IA pode acabar tendo um significado histórico parecido. Sobre isso, recomendo Technological Revolutions and Financial Capital, de Carlota Perez
Portanto, o avanço dos transistores, ou seja, Moore’s Law (Lei de Moore), deve continuar por mais 10 anos. Foi isso que impulsionou o crescimento dos smartphones (2008–2023), e o dinheiro já investido hoje vai para a produção de semicondutores dos próximos 2 ou 3 anos (2nm, A20, depois A18/14). Em 2030–2032, ainda deve haver impulso suficiente para chegar a A10 e A8. Mesmo que o ritmo desacelere, ainda dá para sustentar até 2035. Se em 2035 chegarmos a A5, isso representa algo como 12x mais densidade. Mesmo incluindo melhorias em packaging, chiplets e interconexão, isso dá algo como 30–40x. Ainda está muito longe dos 1000–10000x de computação que muitas empresas de IA querem. E a expansão da largura de banda de memória também teria de acompanhar esse ritmo
O lado paradoxal da automação é que, em vez de só aumentar o tamanho da economia, ela também elimina algumas indústrias. Pode haver mais bens, mas, se eles deixam de elevar o status social, seu valor acaba caindo. Antes, um prego podia representar 0,5% da economia; hoje, nem o dono de uma fábrica de pregos tem margem alta ou status social. Se o desenvolvimento frontend de software também for automatizado, seu peso econômico e social deve cair do mesmo jeito. Status social, no fim, é soma zero, então as pessoas vão tentar buscá-lo em outro lugar
Estou esperando o dia em que apareça uma forma de otimizar computação reconfigurável com FPGA para reduzir em mais de 90% o custo de inferência de LLMs
Eu queria ver mais pesquisa de ciência da computação teórica (theoretical CS) nessa área. Se reconhecermos que toda técnica de machine learning é, no fim, uma técnica de “compressão”, então deveríamos conseguir estimar o tamanho mínimo de um LLM a partir da quantidade de informação que cabe em um dado número de parâmetros, da relação entre perda de informação e desempenho, e da quantidade de informação no dataset original. Acho os LLMs grandes demais, mas ao mesmo tempo o volume de dados que tentam conter é tão vasto que talvez eles realmente precisem ser maiores do que parece. Como a compressão com perda (lossy compression) é o princípio da “generalização” dos LLMs, é preciso uma capacidade muito grande para conter plenamente a informação
Fico curioso sobre de onde viria esse ganho de desempenho. O hardware já está num nível em que consegue fazer GEMM (multiplicação geral matriz-matriz) o mais rápido possível
Amigos que trabalham com chips vivem reclamando que a Qualcomm tem muitas patentes ligadas a FPGA, o que estaria bloqueando qualquer inovação realmente relevante com FPGA
Não precisa esperar. FPGA não foi feito para esse tipo de arquitetura. A eficiência energética é boa, mas por causa do overhead de placement e routing, da memória limitada (a maioria dos FPGAs no mercado não tem HBM), do clock mais lento e da experiência de desenvolvimento ruim, é difícil virar a solução principal
ASICs já existem. Por exemplo, dá para usar o Google TPU como referência de custo. O próprio HBM (memória de alta largura de banda) já é muito caro