- O plano de investimento da Nvidia de até US$ 100 bilhões para apoiar o treinamento e a operação dos modelos de IA de próxima geração da OpenAI não está avançando devido à oposição interna e às incertezas
- A estrutura de construção de infraestrutura computacional de 10 GW e aluguel de chips, anunciada em setembro de 2025, ficou parada no nível de memorando de entendimento inicial e não evoluiu para um contrato definitivo
- Dentro da Nvidia, surgiram preocupações sobre a falta de disciplina operacional e o aumento da concorrência no plano original, que era um acordo não vinculante
- A OpenAI enfrenta entraves em sua estratégia de garantir computação em larga escala durante a preparação para o IPO no fim de 2026
- Com o crescimento do Google Gemini e do Anthropic Claude, a dinâmica competitiva dos modelos de IA está se tornando desfavorável para a OpenAI
Visão geral do contrato e conteúdo do anúncio inicial
- A Nvidia assinou um memorando de entendimento prometendo construir pelo menos 10 gigawatts de poder computacional para a OpenAI
- Incluía uma estrutura na qual a OpenAI alugaria essa infraestrutura da Nvidia
- Também foi discutido um plano no qual a Nvidia forneceria até US$ 100 bilhões em investimento ou financiamento
- Na época do anúncio, Jensen Huang descreveu isso como o maior projeto de computação da história
- Logo após o anúncio, as ações da Nvidia subiram cerca de 4%, e o valor de mercado da empresa atingiu aproximadamente US$ 4,5 trilhões
Estagnação das negociações e preocupações internas
- No entanto, as negociações desse contrato estão atualmente paradas na fase inicial, sem progresso substancial
- Em privado, Jensen Huang enfatizou que o acordo era não vinculante e ainda não estava fechado
- Ele também expressou preocupações sobre a falta de disciplina operacional da OpenAI e o aumento da concorrência com Google e Anthropic
- Ainda assim, porta-vozes da Nvidia e da OpenAI afirmaram a intenção de continuar cooperando
Pressão financeira sobre a OpenAI e preocupações dos investidores
- A OpenAI está se preparando com o objetivo de realizar um IPO até o fim de 2026
- No último ano, concentrou-se na disputa para garantir capacidade computacional em larga escala
- Sam Altman mencionou que os contratos acumulados totalizam compromissos de computação de US$ 1,4 trilhão
- Isso equivale a mais de 100 vezes a estimativa de receita da época
- A OpenAI explicou que, considerando as sobreposições entre contratos, a exposição real seria menor
Mudanças no ambiente competitivo e reação do mercado
- Com o sucesso do Google Gemini, o crescimento do ChatGPT desacelerou, e a OpenAI declarou internamente código vermelho
- O Claude Code da Anthropic está pressionando a OpenAI na área de codificação com IA
- A Nvidia também prometeu separadamente um investimento de até US$ 10 bilhões na Anthropic
- A OpenAI assinou vários contratos com empresas de semicondutores e nuvem, impulsionando a alta dos mercados globais, mas
investidores demonstraram preocupação sobre sua capacidade de financiar esses acordos, e as vendas de ações de tecnologia ligadas à OpenAI continuaram
- Em um documento regulatório de novembro, a Nvidia afirmou que "não há garantia de que firmará um contrato definitivo relacionado a uma oportunidade de investimento na OpenAI ou a outros investimentos potenciais, nem de que o investimento será concluído conforme o esperado"
- Em uma conferência do UBS em dezembro, o CFO da Nvidia reafirmou que o contrato definitivo ainda não havia sido assinado
Dilema estratégico da Nvidia
- A Nvidia reconhece a necessidade de manter certo nível de apoio porque a OpenAI é um de seus principais clientes
- Se a OpenAI perder terreno na concorrência, isso pode levar a uma queda na demanda por GPUs
- Anthropic e Google usam AWS Trainium e Google TPU
- Isso representa uma ameaça competitiva estrutural às GPUs da Nvidia
1 comentários
Opiniões do Hacker News
Link do arquivo da matéria
Nos últimos 6 meses, a participação de mercado da OpenAI caiu bastante
Nesse meio-tempo, a Nvidia vem treinando sua própria família de modelos com a nova liquidez que garantiu
Nessa situação, a aliança com a OpenAI parece menos significativa do que antes
Veja mais no blog da Nvidia
Desde 2019, esses modelos vêm servindo como planta de referência para outras empresas
Link do artigo
Ele perdeu credibilidade com mudanças de posição sobre regulação, vazamento de e-mails internos etc.
Os modelos estão ficando parecidos a cada atualização, e no fim só vai restar competição por preço
As avaliações das empresas de IA baseadas na premissa de “o vencedor leva tudo” estão desmoronando
Já a Anthropic focou em B2B e no mercado de programação, conquistando uma posição muito melhor
E Sam Altman continua sendo uma figura antipática
O último parágrafo da matéria é interessante
A Anthropic treina seus modelos usando o Trainium da AWS e os TPUs do Google
Esses chips são a principal ameaça competitiva aos GPUs da Nvidia
Se for assim, a única grande empresa de IA que ainda treina modelos com base na Nvidia talvez seja a OpenAI
Não só Google e Amazon, mas também Microsoft, Meta, xAI, Tesla e Oracle ainda estão tentando garantir o máximo possível de GPUs da Nvidia
mas, se outras empresas começarem a fazer seus próprios chips, ela pode entrar diretamente na mina (desenvolvimento de modelos)
Como a OpenAI parece instável, é preciso uma estratégia de diversificação de risco
Parece uma tentativa de escapar da disputa por chips da Nvidia
O vídeo sobre a CoreWeave é interessante
Ele mostra bem a estrutura financeira complexa das empresas de IA
Veja a matéria da TechCrunch
Blog oficial
Parece um movimento estratégico
Ultimamente, os anúncios de investimento não vinculantes parecem praticamente um show para inspirar confiança
A Amazon investe na Anthropic e na OpenAI porque é difícil para ela treinar seus próprios modelos
A Oracle também está cooperando com a OpenAI pelo mesmo motivo
e a Nvidia está se movendo para continuar presente na stack tecnológica dessas empresas
Daqui a 10 anos haverá uma sequência de denúncias sobre questões éticas,
e, até lá, os insiders já terão vendido todos os RSUs e ido embora
O bug que a OpenAI não conseguiu resolver em 2 semanas mostra a falta de capacidade funcional da empresa
Link da issue no GitHub
Mesmo com a maioria dos usuários empresariais sem conseguir nem fazer login no CLI,
isso não virar uma grande notícia indica a fraqueza do ecossistema de desenvolvedores
A UI funciona, mas o ambiente headless não,
e o erro acontece por causa de restrições de recurso exclusivas do plano Enterprise
No fim, estão resolvendo com gambiarras como tunelamento SSH ou copiar a autenticação pela UI
Muita gente já previa há tempos que a estratégia da OpenAI de tratar “o próprio modelo como produto” estava errada
O valor real está nas ferramentas e na velocidade construídas sobre o modelo
porque, sem ele, você pode sofrer um rug pull a qualquer momento
A estrutura circular de investimentos no setor de IA está ficando cada vez mais evidente
Link do vídeo
É um timing interessante, em conjunto com a notícia divulgada ontem sobre os planos de IPO da OpenAI
Matéria do WSJ
As avaliações infladas e a febre de investimentos em IA nos últimos tempos estavam me deixando inquieto
Depois de usar diretamente modelos locais, o caminho para o colapso ficou mais claro para mim
mas na verdade a AMD também faz GPUs bons o suficiente
No fim, a Nvidia foi supervalorizada graças à vantagem de pioneira
mas os modelos open-weight logo alcançam esse nível
Em poucos anos, a competitividade dos modelos pagos vai desaparecer
Graças a modelos abertos e interfaces abertas, qualquer um pode implementar isso
Nessa altura, os modelos da Anthropic ou da OpenAI não terão nada de especial
Como os LLMs aprendem repetindo dados do passado,
eles não conseguem evoluir como no aprendizado contínuo (aprendizado por reforço)
A eficiência em relação ao investimento vai cair, e eles acabarão entrando em estagnação
Mas, graças a todo o investimento despejado até aqui, o ecossistema de modelos abertos continuará útil
nem dependeria de uma empresa específica de modelos de fronteira
modelos open source são atraentes do ponto de vista da privacidade,
mas ainda devem continuar como um nicho para power users
Ele usa Claude e Gemini em paralelo,
e prevê que os LLMs fechados, treinados com mais dados privados,
acabarão ficando à frente em termos de qualidade
Ainda assim, independentemente do modelo usado, a demanda por computação vai crescer de forma explosiva,
e ele está focando seus investimentos em infraestrutura física de IA, como chips e RAM