4 pontos por GN⁺ 2 일 전 | 1 comentários | Compartilhar no WhatsApp
  • A venda dos produtos da OpenAI deixa de ficar presa a um único parceiro de nuvem, e o direito de venda exclusiva da Microsoft desaparece
  • A OpenAI passa a poder buscar contratos também com nuvens concorrentes como a Amazon, ampliando seus canais de distribuição
  • A Microsoft deixará de pagar participação na receita sobre os produtos da OpenAI revendidos em sua própria nuvem
  • O ajuste não rompe a relação entre as duas empresas; ele altera em conjunto as cláusulas de exclusividade e divisão de receita do contrato existente
  • Com a mudança na estrutura que ajudou a expandir a receita de nuvem da Microsoft no início do boom de IA, também surge espaço para mudanças na dinâmica competitiva do mercado de infraestrutura de IA

Pontos principais da mudança contratual

  • Microsoft e OpenAI eliminaram o direito de venda exclusiva da Microsoft, permitindo que a OpenAI busque contratos também com concorrentes de nuvem como a Amazon.com
  • Em troca, a Microsoft deixará de pagar participação na receita pelos produtos da OpenAI revendidos em sua própria nuvem
  • As duas empresas anunciaram o contrato revisado em uma declaração conjunta

Mudança na estrutura de negócios

  • A exclusividade anterior ajudou a expandir a receita de nuvem da Microsoft no começo do boom de IA
  • Com esta mudança, a OpenAI passa a garantir margem para negociar também com outros provedores de nuvem além da Microsoft
  • Ao mesmo tempo, a Microsoft reduz o ônus de dividir receita na estrutura de revenda dos produtos da OpenAI

Um novo equilíbrio na parceria

  • A OpenAI deixa de vincular os canais de venda de seus modelos de IA a um único parceiro
  • A Microsoft abre mão da posição exclusiva na distribuição dos produtos da OpenAI em troca do fim do compartilhamento de receita na revenda
  • A relação entre as duas empresas não representa uma separação completa; o ajuste muda em conjunto as cláusulas de exclusividade e divisão de receita do contrato existente

Efeitos diretos no mercado

  • Com a OpenAI, criadora do ChatGPT, podendo negociar também com nuvens concorrentes como a Amazon.com, os canais de distribuição de modelos de IA podem se ampliar
  • Com a mudança na estrutura exclusiva que contribuiu para a vantagem inicial da Microsoft, pode haver alteração na dinâmica competitiva do mercado de infraestrutura de IA
  • O alcance confirmado neste anúncio se limita ao conteúdo do ajuste contratual descrito na declaração conjunta e na reportagem da Bloomberg

1 comentários

 
GN⁺ 2 일 전
Comentários do Hacker News
  • Acho que a Google pode ser a maior beneficiada disso tudo
    Quase todos os laboratórios de IA de ponta usam TPU, e a OpenAI era quase a única exceção por causa do acordo de exclusividade com a Microsoft
    Como a TPU Gen 8 também foi lançada neste mês, parece bem possível que a OpenAI passe a considerar seriamente o uso de TPUs

    • Muitos laboratórios usam TPU, mas não de forma exclusiva
      A maioria sempre sofre com falta de compute, então, se houver capacidade ociosa de TPU, acabam adaptando pelo menos parte do sistema para rodar lá
    • Por acaso, a Apple também parece sair ganhando
      A plataforma dela para inferência é bem forte, e a Siri não consumiu custos particularmente grandes
      O acordo Apple/Gemini também é interessante, e a Google continua parecendo disposta até a piorar deliberadamente a própria experiência na Apple para tentar fazer os usuários migrarem
    • Ouvi muitos rumores de que a Google está preparando algo grande, e acho que isso pode acabar decidindo o rumo do jogo da IA
    • Ninguém sabe quem é você
      Dá para tirar tranquilamente frases tipo "opinions are my own"
    • A OpenAI usa GCP
      Não sei se usa TPU também, mas pelo menos ela já está conectada ao Google Cloud
      https://www.reuters.com/business/retail-consumer/openai-taps...
  • Esse acordo parece favorável demais para a OpenAI, então não fica claro de imediato por que a Microsoft aceitou
    O acordo anterior provavelmente estava prendendo demais a OpenAI e tornando o próprio investimento arriscado, especialmente agora que surgiram concorrentes sérios como a Anthropic, então parece que sentiram necessidade de afrouxar as condições

    • A Microsoft é a maior acionista da OpenAI, então não quer que o investimento vá a zero
      Ela não vai simplesmente deixar evaporar um investimento de dezenas de bilhões de dólares
    • Mais simplesmente, a causa mais provável são as restrições de compute
      No texto mais recente do Ben Thompson, ele diz que a Microsoft deslocou clientes externos para dedicar sua infraestrutura à OpenAI, então esse ajuste parece mais uma tentativa de recuperar folga de capacidade
    • Só o fato de poder colocar os modelos da OpenAI no Azure sem custo de licenciamento já é um bom negócio
      E como a Microsoft detém algo em torno de 15~27% da OpenAI, se o contrato estava prejudicando mais a OpenAI do que a própria Microsoft, faz sentido mudar os termos
    • Tenho curiosidade sobre quais cláusulas específicas você acha que estavam atrapalhando mais a OpenAI
    • Microsoft will no longer pay a revenue share to OpenAI parece uma condição bem boa
      Ela ainda mantém o status de principal provedora de nuvem, então, se a qualidade do Azure melhorar, isso pode virar uma máquina de imprimir dinheiro enquanto a OpenAI continuar lançando bons modelos
  • Com isso, a OpenAI deixa de ficar presa ao Azure e pode ir também para a AWS
    Então o Azure até parece estar numa situação bem delicada
    https://news.ycombinator.com/item?id=47616242

    • O Andy Jassy acabou de confirmar isso pessoalmente
      https://www.linkedin.com/posts/andy-jassy-8b1615_very-intere...
    • O Azure ainda não oferece suporte a IPv6
      Basta olhar as discussões no GitHub para ver o estado da coisa
      [1] https://github.com/orgs/community/discussions/10539
    • A sede por compute da OpenAI talvez nunca tenha sido algo que um único provedor de nuvem conseguisse sustentar sozinho
      Além disso, como a OpenAI disse que está migrando para B2B e enterprise, é natural disponibilizar os modelos em várias nuvens
    • Se os modelos da OpenAI realmente vão para a AWS GovCloud, então, considerando também os desdobramentos envolvendo Anthropic / Hegseth, isso parece algo até previsível
    • Mesmo assim, eu achava que o Azure continuaria de pé por causa das suas máquinas de dinheiro chamadas SharePoint / Office / Active Directory
  • A frase sem fosso do memorando interno da Google ainda parece correta
    O Deepseek v4 é realmente bom o suficiente pelo preço, e bastante impressionante
    Mas, seja modelo caro ou barato, a confiabilidade continua baixa, eles ainda cometem erros bobos, e qualquer código gerado precisa ser revisado
    No fim, continuo achando que o Deepseek v4, assim como outros modelos como o Claude Opus, é só um gerador que segue distribuições de tokens sem um processo real de pensamento

    • Ainda não acho que LLMs sejam muito bons em criação
      Eu ainda preciso estar no volante entendendo tudo, e só reduzir digitação não me dá tanta alavancagem assim
      Em compensação, para revisão eu preciso do modelo mais inteligente possível
      Quero que ele realmente investigue minhas mudanças até o fim
      Recentemente passei 2 semanas caçando um problema de SQLite query plan, e nem vários agentes nem o GPT-Pro suspeitaram disso
      Também porque não era totalmente reproduzível, mas fiquei com a impressão de que problemas no planejador SQL talvez sejam um buraco nos dados de treino
      Talvez o Mythos consiga enxergar esse tipo de coisa
    • Acho simplista demais reduzir LLM a um gerador aleatório de tokens
      Mesmo que isso abale as bases do setor, dá para ver claramente que um novo tipo de inteligência está surgindo aqui
    • Deepseek v4, Qwen 3.6 Plus/Max e GLM 5+ já são opções bem sólidas para a maioria das tarefas
    • Eu também concordo
      O verdadeiro fosso ainda está nos dados e na base de usuários
      Mesmo quando surgem novos modelos ou técnicas, com o tempo isso acaba se espalhando como biblioteca gratuita que qualquer um pode usar
    • Ao depurar um script, dei o mesmo prompt para Deepseek 4 Pro e Claude, e os dois chegaram exatamente ao mesmo julgamento, que também estava errado
      Mesmo depois de eu complementar o contexto e repetir mais de doze vezes que ainda não estava resolvido, ambos continuaram repetindo praticamente o mesmo raciocínio, só com palavras diferentes
      A única diferença era o preço, e o Deepseek fez isso por 1/40 do custo via API
      O Deepseek V4 Pro está com 75% de desconto agora, mas ainda assim estamos falando de algo como 3 dólares contra 20 dólares
  • No começo, o Nadella parecia segurar a OpenAI com firmeza, mas nos últimos anos dá a impressão de que a Microsoft só vem atendendo às exigências da OpenAI
    Fico me perguntando por que ela está agindo de forma tão fraca e não exercendo mais controle
    Também acho estranho que a Microsoft já tenha tido 49% da OpenAI e agora tenha caído para 27%

    • Pode ser algo pessoal, mas por eu ter crescido pobre tendo a ser mais conservador financeiramente
      Se eu tivesse 49% de uma empresa cuja hype supera o produto e que ainda nem encontrou mercado, mas que já vale trilhões, eu venderia parte dessa participação e montaria poder de fogo de verdade para contribuir com resultado financeiro real
      Pela valuation atual, isso só se justifica se a OpenAI esmagar completamente os concorrentes, então não fazer hedge me parece mais irresponsável do que prudente
      Em um dos meus projetos, quando o Bitcoin doado atingiu uma máxima histórica, vendi metade, e quando bateu outra máxima histórica eu ainda estava com o restante
      Não maximizei o lucro, mas foi mais do que suficiente para o objetivo e ainda deu um retorno muito bom dentro do razoável
      Só para constar, não considero crypto um investimento, apenas foi assim que recebi a doação
    • Acho que ele está percebendo aos poucos o contrário: que agora é o lado do Nadella que está preso
      Parece aquela situação em que dever 100 dólares ao banco é diferente de dever 100 milhões
    • Era preciso negociar a remoção da estrutura sem fins lucrativos da OpenAI
      O Sam usou isso como ferramenta de marketing e recrutamento, mas depois acabou virando um entrave
      Para transformar a OpenAI num negócio plenamente capitalista, era necessário desmontar essa estrutura, e como o controle estava com a entidade sem fins lucrativos, seria preciso oferecer algo em troca da transferência de poder
      Depois dessa longa negociação, a Microsoft ficou com 27% de participação, e agora a chance de um conselho de ética paralisar a empresa diminuiu
      Mas, na prática, a composição dos conselhos da parte sem fins lucrativos e da parte com fins lucrativos é quase a mesma e, depois da tentativa de golpe fracassada, ambos parecem basicamente subordinados ao Sam
    • Se o Sam continuar agindo como o Sam, então, se a Satya insistir no contrato antigo, a participação da Microsoft na OpenAI pode acabar virando 0%
      A OpenAI poderia ser fechada e reaberta em outra entidade jurídica parecida, ou a Microsoft poderia desmontar a empresa na prática por meio de litígio
      No fim, do ponto de vista da Microsoft, é melhor garantir 27% do que acabar sem nada
    • Não entendo por que comprar mais participação numa empresa que ainda nem dá lucro
      Isso pode só significar carregar uma mala ainda maior
  • Fiquei com a impressão de que o comunicado à imprensa que eu tinha visto foi totalmente reescrito em 10 minutos
    A versão atual tem mais ou menos metade do tamanho da anterior, e antes o texto soava como uma parceria muito mais profunda, não apenas uma questão de "simplification" ou "flexibility"
    Havia também um monte de salada de palavras sobre AGI, e uma frase dizendo que o Azure manteria exclusividade sobre o produto de API, mas não sobre outros produtos, o que a nova versão parece contradizer
    Já nem sei o que foi que eu vi

    • Eu vi exatamente a mesma coisa
      Li uma vez, voltei para conferir de novo e o conteúdo tinha mudado completamente
    • Se alguém ainda tiver a versão original do release, seria ótimo se pudesse publicar em algum lugar
    • Dá quase a sensação de que, a cada atualização da página, eles mudam o texto para combinar com o humor e a inclinação do leitor
      Claro, é brincadeira, mas esse futuro também não parece tão distante
    • Parece que algum time interno ou de marketing entrou no fim e refez tudo às pressas
    • A frase já no primeiro parágrafo parecia tão mal escrita que eu nem consegui continuar lendo
  • A Microsoft venceu o round 1, mas agora está muito para trás
    Não é fácil desperdiçar uma mão tão boa nesse nível, e parece o tipo de situação em que o CEO deveria sair

    • Pensando bem, também é uma posição familiar para a Microsoft
    • Não sei muito bem o que o CEO poderia ter feito de diferente
  • Um efeito colateral interessante disso é que o Google Cloud talvez se torne o único hiperescalador capaz de revender os modelos dos três laboratórios
    Posso estar lendo errado, mas, se for verdade, é uma mudança bem grande
    Também não vejo por que a Google permitiria que outras nuvens revendessem o Gemini
    Nesse caso, os GCP credits podem ficar bem mais úteis na prática

    • Do ponto de vista das empresas, se Anthropic e OpenAI podem ser compradas em qualquer nuvem, mas o Gemini fica restrito ao GCP, isso pode acabar prejudicando o Gemini no longo prazo
    • A expressão hype scaler foi perfeita
    • Se isso acontecer, no fim pode ser bem fatal para os modelos Gemini
  • Esse movimento parece uma retirada da Microsoft
    Juntando com outras notícias recentes da empresa, parece que ela está caminhando para colocar apenas uma IA boa o bastante nos próprios produtos
    A Microsoft provavelmente sabe que só o bundle do Office 365 já consegue atrair muitos clientes corporativos

    • Ela pode acabar preferindo fazer um acordo com a Anthropic
  • Parece que os hiperescaladores agora estão reconhecendo que as novas empresas de modelos fundacionais podem valer mais do que eles próprios
    A Anthropic parece ter uma chance real de ultrapassar a receita da AWS no ano que vem, e algo parecido pode acontecer com a OpenAI no Azure
    Há 3 anos, modelos fundacionais pareciam apenas mais um recurso dos hiperescaladores, mas agora são os hiperescaladores que começam a parecer parte da cadeia de suprimentos

    • Parece que os dois lados subestimaram a situação
      Até o ano passado, muita gente dizia que IA era bolha, que a demanda era fraca e que até projetos-piloto estavam fracassando
      As empresas de modelos tinham convicção, mas pareciam achar que ainda havia tempo para construir seus próprios datacenters aos poucos
      Só que em algum momento entre o fim do outono e o inverno algo mudou, o desempenho dos modelos cruzou um limiar, a demanda explodiu e continuou explodindo
      Agora as empresas de modelos estão correndo atrás de capacidade de compute de qualquer jeito, então vão fechar qualquer acordo possível com hiperescaladores
      No fim, a questão central é se essas empresas de modelos conseguem obter o compute de que precisam sem na prática se vender aos hiperescaladores por inteiro