3 pontos por GN⁺ 2025-09-23 | 1 comentários | Compartilhar no WhatsApp
  • A OpenAI anunciou um plano para construir data centers de IA de pelo menos 10 GW com base em sistemas NVIDIA, estabelecendo a infraestrutura de próxima geração para IA
  • Nesse processo, a NVIDIA se comprometeu a investir gradualmente até US$ 100 bilhões a cada implantação em escala de gigawatts
  • O primeiro sistema de 1 GW está previsto para entrar em operação no segundo semestre de 2026 na plataforma Vera Rubin
  • A colaboração inclui otimização conjunta de hardware e software entre OpenAI e NVIDIA, além de complementar as parcerias já existentes com Microsoft, Oracle, SoftBank e Stargate
  • A iniciativa deve servir como uma base importante para a OpenAI avançar rumo à AGI, apoiada por mais de 700 milhões de usuários semanais e pela adoção global no mercado

Visão geral da parceria

  • OpenAI e NVIDIA anunciaram uma carta de intenções (LOI) para firmar uma parceria estratégica voltada à implantação de sistemas em escala mínima de 10 GW
    • O objetivo é garantir infraestrutura para o treinamento e a execução dos modelos de próxima geração da OpenAI
    • A iniciativa foi apresentada como parte de um avanço gradual em direção à superinteligência
  • A NVIDIA revelou um plano de investimento de até US$ 100 bilhões, alinhado ao processo de implantação que inclui expansão de data centers e de energia elétrica
  • A primeira etapa está prevista para ficar online no segundo semestre de 2026, na plataforma NVIDIA Vera Rubin

Principais declarações

  • Jensen Huang (CEO da NVIDIA)
    • Mencionou a história de 10 anos de colaboração com a OpenAI e destacou a jornada até o avanço representado pelo ChatGPT
    • Declarou que “a implantação de uma infraestrutura de 10 GW será um salto que abrirá a próxima era da inteligência”
  • Sam Altman (CEO da OpenAI)
    • Enfatizou que “tudo começa com compute”, afirmando que isso será a base da economia do futuro
    • Explicou que, junto com a NVIDIA, a empresa pretende impulsionar novos avanços em IA e seu uso em larga escala por pessoas e empresas
  • Greg Brockman (presidente da OpenAI)
    • Citou que a empresa vem construindo IA usada por centenas de milhões de pessoas sobre a plataforma da NVIDIA
    • Declarou esperar que a implantação de 10 GW expanda os limites da inteligência e amplie a disseminação dos benefícios da tecnologia

Escopo da colaboração

  • A NVIDIA foi designada como parceira estratégica de compute e networking da OpenAI
  • As duas empresas vão otimizar em conjunto os modelos e o software de infraestrutura da OpenAI com o hardware e o software da NVIDIA
  • Está prevista a ampliação das sinergias com a rede de parceiros já existente, incluindo Microsoft, Oracle, SoftBank e Stargate

Situação atual da OpenAI e significado da parceria

  • A OpenAI registra atualmente mais de 700 milhões de usuários ativos por semana e vem sendo amplamente adotada por grandes empresas, PMEs e desenvolvedores no mundo todo
  • A parceria é vista como uma base para acelerar a missão de construir uma AGI que beneficie toda a humanidade
  • A empresa planeja definir os detalhes finais da parceria nas próximas semanas

1 comentários

 
GN⁺ 2025-09-23
Comentários do Hacker News
  • É muito interessante expressar isso em gigawatts. Nos últimos 3 anos, houve controvérsia sobre a alta acentuada das tarifas de eletricidade para famílias e pequenos negócios por causa do crescimento da IA impulsionado por data centers. Se 10GW equivalem ao consumo combinado de Chicago e Nova York, então, diante da situação lamentável da rede elétrica e da infraestrutura dos EUA, é preciso discutir seriamente de onde virá essa energia. Como o custo já foi repassado às famílias para fornecer eletricidade barata aos data centers, essa desigualdade também é um problema. O fato de a tarifa residencial de eletricidade nos EUA ter subido de 13 centavos para 19 centavos em 5 anos, um aumento de 46%, não é nem justo nem sustentável. A dúvida é: de onde virão esses 10GW, e quem vai pagar a conta? Como referência, quando se fala do porte de data centers, é comum usar potência (watts) como base, mas desta vez o número veio da perspectiva de um fornecedor de computação como a Nvidia, e não do proprietário ou operador puro do data center. Isso mostra o quanto consumo de energia, expansão da rede e divisão de custos estão no centro da discussão
    • Trabalho no setor de data centers. Falar do tamanho de um data center em consumo de energia (por exemplo, 200MW) é o padrão. O equipamento de computação pode ser atualizado a cada 5 anos, mas a demanda de energia é quase fixa. No fim, essa unidade mostra bem que IA é um ato de refinar energia
    • Sobre a afirmação de que “não é justo nem sustentável”: comparado à Itália, os EUA têm tarifa de eletricidade pela metade. Num país tão rico quanto os EUA, não me parece algo impossível de superar
    • A infraestrutura de data center sempre é dimensionada em watts. A partir desse número derivam todos os cálculos de carga de TI, refrigeração etc.
    • As concessionárias precisam justificar aumentos de tarifa perante os reguladores. A principal causa do aumento de custos é a transição para energia renovável. Não é difícil fazer com que grandes data centers arquem diretamente com os custos necessários. O problema mais complexo é gerar a própria energia. Antes, era possível puxar eletricidade barata da hidrelétrica do rio Columbia, mas agora isso começou a competir diretamente com o consumo residencial. Ainda assim, o custo de geração é uma parte muito pequena da conta total
    • Um aumento anual de 8% é grande, mas é preciso considerar o choque global de combustíveis em 2022. Na Austrália, por exemplo, a conta de luz dobrou naquele ano. Em média, no longo prazo, a alta fica em torno de 6% ao ano, um pouco acima do crescimento salarial de 4%. A eletricidade ainda representa uma pequena parcela da renda familiar. O aumento dos salários absorve a maior parte do impacto. Claro que para os mais pobres isso pode pesar muito, mas para a maioria não é algo com grande repercussão
  • Todas as expressões do comunicado sobre a “landmark strategic partnership” são vagas demais e soam como puro marketing corporativo. Na prática, parece um anúncio do tipo “um dia vamos fazer algo grandioso”
    • As ações da Nvidia subiram US$ 6 hoje, então o anúncio claramente surtiu efeito. Na prática, foi como dizer aos investidores “vamos fazer algo incrível, então nos deem mais capital”, e muitos parecem ter reagido a isso
  • Fico curioso sobre o que exatamente significa um sistema da Nvidia em escala de gigawatts. Fiz uma estimativa por conta própria, com ajuda do GPT, e pode dar perto de 10 milhões de unidades. Parece realmente uma escala absurda
    • Esses números são de fato absurdamente grandes. No nível de sistema, um H100 consome algo como 1~2kW, então usando 2kW daria cerca de 5 milhões de unidades. Por exemplo, um rack NVL72 tem 72 chips e 120kW, totalizando cerca de 2kW por chip incluindo refrigeração
    • Dá para dizer sem medo “na casa dos milhões”. A quantidade real varia conforme a infraestrutura, e na prática os aceleradores são só uma parte do consumo total, mas a escala certamente é de milhões de unidades
    • Antes de ler os comentários, fiz uma conta rápida: se considerar 600W por GPU, então 10.000.000.000/600 = 16,66 milhões de unidades. Vai diferir bastante da realidade quando se consideram vários fatores, mas serve como ponto de partida. Não inclui overhead, calor, eficiência de conversão etc.
    • Se considerar 3MW por 1.000 GPUs, então 10GW dá aproximadamente 3,33 milhões de unidades
    • Também fico curioso sobre o tipo e o comprimento dos cabos necessários para conectar todas essas GPUs. Eu achava que era só encaixar em racks de metal, mas vendo fotos reais de data centers, há incontáveis cabos azuis conectados por toda parte
  • Já me parece que a tecnologia de LLMs já passou do auge. Agora é como propaganda de aquecedor portátil: fingem que há um grande avanço, quando na prática a tecnologia está estagnada. Só estão fazendo cavalos mais rápidos. O mercado deveria ter controlado isso de forma racional
    • É totalmente possível que a bolha da IA estoure de forma espetacular em algum momento. Mas dizer que este é o pico dos LLMs seria como dizer que a internet também atingiu o auge entre 1999 e 2001. Na verdade, depois vieram outras inovações, como smartphones, e os LLMs baseados em texto também não estão estagnados. IA não é só texto; IA do mundo real, como carros autônomos, também está avançando de forma exponencial
    • Na bolha das pontocom também houve um grande crash após enorme superaquecimento, e empresas que sobreviveram, como a Amazon, viraram gigantes. Espero que esta onda de IA também deixe resultados significativos
    • Acho que logo virá uma correção de mercado. Ainda assim, como a internet continuou valiosa depois do colapso das pontocom, espero que o valor permaneça no longo prazo
    • A visão de que “já passou do ponto” é no sentido de que todas as expectativas positivas já foram precificadas
  • Em muitos lugares, a água é um recurso essencial e escasso. Já houve vários casos de data centers sugando água em meio à seca. Fico me perguntando se a EPA dos EUA ainda consegue se posicionar sobre a gestão do uso de água em projetos assim
    • No Meio-Oeste, a água subterrânea é usada mais para produção de etanol, e na Califórnia, para cultivo de amêndoas. O impacto dessas duas atividades sobre os recursos hídricos é muito maior, e sua utilidade real é menor que a dos data centers. Eu preferiria que houvesse mais foco nos problemas realmente graves
    • A questão da água em data centers não é tão importante quanto a imprensa faz parecer. Há problemas localizados em algumas regiões, mas a questão energética é mais central
    • Tenho dúvida se o consumo de água de data centers, na prática, não é mais um sistema de refrigeração por circulação do que um consumo realmente elevado, já que a água só é bombeada e recirculada
  • Quase ninguém fala direito sobre a demanda de eletricidade dessas instalações gigantes. Em Nova Jersey, a conta de luz que pago à PSEG também subiu mais de 50%. Dizem que a demanda disparou por causa dos data centers, mas a realidade é que não se aplica uma tarifa mais alta a eles artigo relacionado
    • Esses aumentos de tarifa mostram a realidade política de Nova Jersey, que ignora os consumidores. Os data centers acabarão se concentrando em regiões com tarifas de eletricidade competitivas
    • Quem permitiu isso foi o governo estadual. Poderia simplesmente ter recusado, mas autorizou
  • O Google consome 15TWh por ano (cerca de 1,7GW), mas o novo plano da OpenAI com a Nvidia deve consumir 5,8 vezes isso, ou seja, 5,8 Googles. Numa escala dessas, deve surgir uma enorme oportunidade para chips de IA ultrabaixo consumo em comparação com as GPUs atuais. Já existem várias tentativas técnicas, então isso é promissor
    • Fico curioso por exemplos concretos de chips de IA ultrabaixo consumo. Seria bom ver números sobre o quanto realmente economizam energia
    • Só esse data center já poderia reunir poder computacional suficiente para fazer um ataque de 51% contra uma grande criptomoeda. Se o mercado de IA desinflar no fim da bolha, isso pode virar uma espécie de seguro interessante
  • Estou apenas esperando em silêncio o artigo de análise do Ed Zitron sobre esse tema
    • Quando executivos não conseguem medir desempenho por output, acabam medindo só por input, e a eficiência cai. Mandar funcionários de volta ao escritório é uma extensão disso. Agora, para OpenAI e Nvidia, gigawatts investidos viraram um critério de sucesso mais importante do que resultados reais de IA
    • Post do próprio Ed Zitron
    • Muita gente também perdeu bastante dinheiro seguindo só uma previsão pessimista do Ed Zitron
  • Há uma suposição de que esse data center precisaria de uma área do tamanho de Mônaco (740 acres), com base em 80kW por rack
    • Mônaco é minúsculo, algo que caberia no parque Tempelhofer, no centro de Berlim
    • Na prática, dá para descrever como algo do tamanho de uma fábrica da BYD
    • Mônaco tem 2 quilômetros quadrados. Se considerar 1 metro quadrado por rack, a área realmente necessária seria 12 hectares, ou cerca de 17 campos de futebol (numa instalação de um único andar). Fico pensando se daria até para empilhar data centers verticalmente. Será que só eu fui procurar o tamanho de Mônaco? Wikipedia de Mônaco cálculo direto da área
    • Em todo o território dos EUA cabem 4,8 milhões de Mônacos
  • O reator de um submarino da Marinha dos EUA nos anos 1960 tinha 78MW, então 10GW equivalem a 128 submarinos nucleares
    • De forma mais simples, isso equivale a 2% do consumo médio total de eletricidade dos EUA, algo parecido com o consumo de todo o país da Holanda, com 18 milhões de habitantes
    • Uma usina nuclear geralmente vai até 2GW, e até parques eólicos offshore de 1,5GW já estão perto do limite. Mesmo sistemas de transmissão HVDC de 525kV em escala mega têm como máximo cerca de 2GW por cabo. Só uma carga adicional de 10GW já causaria um impacto enorme na rede e exigiria investimentos massivos em infraestrutura. Mesmo pedindo hoje um cabo de 525kV a uma grande empresa, provavelmente só entregariam depois de 2030
    • Por outro lado, se um cérebro humano consome cerca de 20W, então 10GW equivalem a 500 milhões de cérebros. Comparado com insetos como moscas, que processam informação com pouquíssima energia, talvez a IA atual, incluindo LLMs, esteja indo por um caminho totalmente ineficiente. Se algum dia surgir uma abordagem eficiente que derrube isso, o equipamento atual pode perder valor, risos
    • Dez reatores РБМК muito seguros de 1GW dariam 10GW (sem risco de explosão)
    • Uma usina gera algo como 1GW, e como construir nuclear é lento, o mais provável é que acabem recorrendo à geração a gás natural