Os EUA estão vencendo a corrida da IA na área mais importante: a comercialização
(avkcode.github.io)- A principal métrica da corrida da IA é a comercialização, e após o DeepSeek R1, OpenAI e Anthropic colocaram agents, Codex e Claude Code no mercado mais rapidamente
- O valor estratégico da DeepSeek dentro da China está menos na receita e mais em reduzir a dependência da Nvidia e transferir a inferência para stacks domésticas como a Huawei Ascend
- A Europa gastou cerca de US$ 58,8 bilhões em serviços de software da Índia no FY 2023~2024, e cerca de US$ 67,1 bilhões no ano seguinte, mas só modelos não geram valor suficiente
- Custos baixos de energia também importam, mas o alcance de nuvem e dados da AWS·Azure·Google Cloud e do YouTube·Microsoft 365·GitHub é ainda mais decisivo
- IA militarizada e modelos cibernéticos de fronteira como o Mythos, da Anthropic, podem empurrar Estados e empresas de defesa para stacks fechadas e segurança por obscuridade
Onde os EUA estão na frente
- A comercialização é a principal métrica da corrida da IA, e após o DeepSeek R1 chocar o mercado em janeiro de 2025, as empresas americanas se moveram mais rápido
- A OpenAI passou a impulsionar com mais força os agents e o Codex, e a Anthropic comercializou o Claude Code
- A China também tem concorrentes, mas em receita, adoção, ferramentas e alcance, os EUA estão à frente
- O valor estratégico da DeepSeek dentro da China está mais em reduzir a dependência da Nvidia e transferir a inferência para stacks domésticas como a Huawei Ascend do que em desempenho comercial
- Isso reforça a autonomia da cadeia de suprimentos, mas é uma questão diferente de liderança lucrativa em IA
- O Christian Klein, da SAP, afirmou que a Europa não precisa de mais data centers e que grandes modelos de linguagem, sozinhos, não bastam — e de fato, só modelos são insuficientes
- A Europa gastou cerca de US$ 58,8 bilhões em serviços de software da Índia no FY 2023~2024 e cerca de US$ 67,1 bilhões no ano seguinte
- A IA ganha valor quando está ligada a dados reais, fluxos de trabalho reais e produtos reais
- Os EUA estão ampliando sua vantagem ao construir ao mesmo tempo chips, energia, data centers, plataformas de nuvem, ferramentas para desenvolvedores, plataformas de consumo e software corporativo
- O número de artigos ou de engenheiros não prova liderança em IA
- O teste decisivo é a capacidade de financiar infraestrutura, treinar e operar modelos em larga escala, e aplicar IA em toda a economia
O poder da nuvem e dos dados é maior do que o da energia
- O custo da energia é importante porque sistemas modernos com GPU e TPU transformam eletricidade em computação, e energia barata reduz o custo dos modelos
- Em comparações de tarifas de eletricidade, os EUA são mais baratos que as principais economias da Europa Ocidental, e o Canadá é ainda mais barato que os EUA
- China e Rússia têm custos mais baixos que os EUA nessa comparação
- As tarifas residenciais/comerciais são: Alemanha 0.436/0.279, Reino Unido 0.420/0.415, Espanha 0.282/0.136, França 0.274/0.174, EUA 0.201/0.154, Canadá 0.125/0.106, Rússia 0.087/0.131 e China 0.078/0.117
- Infraestrutura de nuvem e dados é uma camada ainda mais decisiva do que a energia
- Os EUA podem distribuir os modelos de suas empresas para o mundo por meio dos hiperescaladores globais AWS, Azure e Google Cloud
- O YouTube é um corpus de vídeo, o Google Drive e o Microsoft 365 estão presentes no trabalho de escritório do dia a dia, e o GitHub está no centro do desenvolvimento de software
- Eles são sistemas de distribuição e também plataformas de dados, permitindo empurrar novos modelos para dentro de produtos que as pessoas usam todos os dias
- Só energia barata dificilmente basta para vencer a corrida da IA
- Sem escala de nuvem, alcance de plataforma, ecossistema de desenvolvedores e acesso a fluxos úteis de dados em larga escala, é possível perder mesmo com custo de energia baixo
- Os EUA têm esses elementos ao mesmo tempo, a China tem boa parte deles dentro de seu grande mercado interno, e a Europa não
- A Europa mantém há muito tempo um forte talento em engenharia, mas só talento não basta
- Os hiperescaladores americanos já dominam o mercado, então alcançar esse nível levará muito tempo
- Mesmo que a Europa invista de fato agora em um campeão de nuvem, construir a infraestrutura seria apenas o primeiro passo; depois, bancos, fabricantes e órgãos públicos teriam de migrar para essa plataforma
- Esse processo pode levar quase 10 anos, e nesse meio-tempo AWS, Azure e Google Cloud avançariam ainda mais em escala, software e dados
- Arkady Volozh tenta transformar a Nebius em uma empresa europeia de infraestrutura de IA, mas a Europa ainda está perto da linha de partida
- IA militarizada também é outra frente
- A próxima etapa pode ser um cenário em que a IA de certos países enfrente a IA de outros em redes de bots, campanhas cibernéticas e armas autônomas
- Não é difícil ajustar sistemas para desumanizar concorrentes, justificar violência ou mirar grupos inteiros da população
- Quando modelos são incorporados a mídia, redes e armas, o viés se transforma em poder, e a corrida da IA também vira uma corrida por segurança
- Modelos como o Mythos, da Anthropic, podem empurrar Estados e empresas de defesa em outra direção
- A intuição antiga no estilo Linux era que código aberto se beneficia de muitos olhos, mas modelos cibernéticos de fronteira podem criar a lógica oposta
- Pode haver um movimento em direção a segurança por obscuridade com software fechado, ferramentas fechadas, firmware fechado e chips fechados
- Se o modelo não puder ser treinado com o código e a arquitetura da stack alvo, normalmente perde contexto e velocidade
- Isso não torna o sistema seguro, mas aumenta o valor de stacks proprietárias que vão até o hardware
1 comentários
Comentários do Hacker News
Anthropic, OpenAI e Google até se destacam, mas a dúvida maior é por que chamar isso de guerra
A China obteve grandes ganhos dentro do seu próprio contexto e também reforçou sua capacidade de projetar e fabricar GPUs
Se fosse realmente uma guerra, Trump estaria atrapalhando o próprio país ao enfraquecer o Estado de Direito e reduzir a boa vontade em relação aos EUA. Se o mundo sentir que é difícil confiar dados à China e difícil confiar em serviços estáveis aos EUA, então, mesmo que os EUA vençam a guerra da IA, os benefícios que voltam para o país podem ser limitados
Na verdade, isso pode até ser bom para regiões como a Europa, que conseguem criar sua própria stack tecnológica, e como a stack de IA é absurdamente cara, há essa situação curiosa em que os fortes modelos open source da China acabam ajudando mais o mundo do que os EUA
Acho isso uma ideia absurda, mas o impulso vem dessa direção. A expressão foi criada pelo autor de ficção científica Charles Stross em The Jennifer Morgue (2006)
Mesmo que você faça armas melhores, ainda há limite para o número de pessoas que podem usá-las, então não dá para conquistar o mundo assim. Mas, se alguém inventar uma superinteligência, pode dominar a pesquisa de novas IAs, controlar a economia mundial e lutar muito melhor, e tudo isso muito rapidamente
Denunciei como conteúdo gerado por IA. Esse texto não deveria estar na front page e, olhando o histórico de envios e comentários do autor, parece que caberia alguma punição
Sobre a afirmação de que “os EUA estão vencendo na comercialização, o aspecto mais importante da corrida da IA”, pode haver muitos critérios para definir vitória, e comercialização não é o primeiro que me vem à cabeça
https://english.www.gov.cn/news/202604/15/content_WS69df29e6...
https://fortune.com/2026/05/03/chinese-court-layoffs-workers...
https://www.reuters.com/world/china/china-moves-regulate-dig...
Também não convence a ideia de que YouTube, Google Drive, Microsoft 365 e GitHub são as plataformas que criam e organizam os dados da era da IA. Fala como se a China não tivesse nem plataformas nem dados
Seria bom haver uma regra exigindo divulgação ou remoção de texto gerado por LLM. O blog inteiro também parece gerado por IA
Não faço ideia de como esse tipo de falatório sem nexo sobe no HN. Como a cultura do HN mudou a ponto de isso chegar ao topo
A força da comunidade dependia totalmente de ser relativamente desconhecida, mas isso já não é mais verdade. No momento em que ficou grande o bastante para servir como plataforma de propaganda política, já morreu como espaço de intelectuais
Só para constar, eu não votei neste envio
O título chama bastante atenção, mas o conteúdo é lixo gerado de baixa qualidade
A rebelião das massas é real
Não, os EUA só estão na frente na corrida da IA; a corrida não acabou
Qual é o valor de estar 90% à frente se, no fim, você escorrega no próprio suor e cai? Mesmo que você gaste dezenas de bilhões de dólares para obter a melhor tecnologia de IA a qualquer custo, isso perde muito valor se o concorrente conseguir destilar esse avanço, alcançá-lo em 6 a 12 meses e gastar só 1% do custo
Até na comercialização, que o texto considera tão importante, os EUA já estão começando a perder participação. Recentemente vi gente saindo de planos cc/codex para planos glm/opencode depois que empresas americanas apertaram o uso nas assinaturas. Se essa tendência se firmar, as empresas dos EUA vão ter problemas. Nem todo mundo precisa dos modelos mais avançados; muita gente só quer pagar 20 dólares por mês e usar um modelo razoavelmente bom
Também é possível um cenário em que a IA vire algo como capacidade genérica de servidor. Se os clientes conseguirem sobreviver sem os grandes hyperscalers, o mercado inteiro de hoje pode acabar parecendo bem tolo
Acho que, quanto melhor a IA ficar, mais substituível ela se tornará. Pode virar algo valioso como eletricidade. Muitas empresas ganham dinheiro produzindo eletricidade, mas não no nível que os investidores atuais parecem esperar
Se de fato só vai sobrar uma é discutível, mas, segundo Cuban, pelo menos elas estão agindo com essa mentalidade
Antigamente existiam lucro e retorno sobre investimento
Se sua estratégia de saída é ser comprado pelo Google, focar em receita pode ser uma boa estratégia. Mas, se você é o próprio Google, o dinheiro despejado precisa ser recuperado em algum momento. Parece que esquecemos isso
O nível atual de comercialização só significa que os EUA estão queimando investimento mais rápido do que qualquer outro. Isso pode mudar algum dia e a aposta pode dar certo, mas, a cada minuto que esse estado continua, o retorno esperado precisa crescer o bastante para cobrir a perda desse minuto e também os juros do tempo anterior. Não sei se isso parece “estar vencendo”. TikTok
O vencedor no longo prazo será quem entregar o melhor desempenho e a menor proporção de uso de memória em modelos locais
Anthropic, OpenAI e Mistral são só empresas que estão ganhando dinheiro agora, ainda não são lucrativas e, no longo prazo, vão perder tração e valor
Dito isso, acho mais interessante ver como ficará a assinatura do OpenCode Go daqui para frente. É mais barato que as big techs, tem mais tokens e não usa nossos dados para treinar em nome de tentar melhorar
A era de treinar só com dados públicos acabou. Todos têm acesso a esses dados, mas só existem alguns poucos modelos de ponta
Os dois caminhos vão se separar. O custo de executar os modelos de ponta vai ficar tão alto que provavelmente eles acabarão restritos a atores estatais. Isso já começou em Mythos
Acho que a explicação mais simples para os EUA estarem vencendo é que eles estão despejando mais dinheiro do que todo mundo, e com uma diferença enorme
As notas promissórias circulares entre empresas de IA e hyperscalers são dívida, ou seja, uma forma de criação de moeda. Claro, também entra muito dinheiro de verdade, mas investir dinheiro que não existe sempre traz um risco gigantesco
Não, os EUA não estão vencendo. Só parece isso porque, no Ocidente, é proibido usar modelos chineses para fins de trabalho
A China está à frente em modelos de ponta open source, então não vejo bem como os EUA estariam vencendo essa disputa. Em algum momento, empresas e indivíduos vão começar a rodar seus próprios modelos na nuvem e localmente, e os modelos chineses estarão por toda parte
Por exemplo, hospedar e executar você mesmo um
deepseek-r1-distill-qwen-7bnão tem problema. Já baixar o app do DeepSeek e rodá-lo num dispositivo de trabalho não é aceito por quem criou essas proibiçõesUm “agora dá para usar Qwen?” não me parece algo que vá causar um grande impacto nos EUA
Vendo de longe, essa tese não faz sentido. Anthropic, OpenAI, xAI, Google, Meta e Microsoft todos operam com prejuízo em IA e se sustentam com dinheiro da controladora ou de investidores, especialmente de investidores
Enquanto isso, os modelos chineses estão alcançando esses players, oferecendo os modelos de graça, rodando em hardware de consumo e, mais importante, sendo treinados a baixo custo. Modelos de IA são produtos extremamente voláteis que podem ficar obsoletos em poucas semanas. No fim, você precisa continuar despejando recursos para desenvolver modelos melhores, sem nenhum objetivo além de expansão infinita
O comportamento real do usuário acaba sendo: “não uso Gemini porque ele é pior que Claude em XYZ”. Se os modelos Gemini piorarem mais, as pessoas migram para a Anthropic. E se os modelos da Anthropic ficarem piores do que os outros? Se o produto for objetivamente pior, de que adianta comercializar bem?
Entendo o argumento de que os EUA dominam distribuição, integração, contratos corporativos, ecossistema e infraestrutura. O texto não está errado nisso, mas esse domínio é frágil e exige upgrades contínuos
Se você precisa expandir sem parar enquanto o rival está logo atrás pronto para ultrapassar, qual é exatamente o sentido disso? Expansão infinita é impossível, e o dinheiro de VC vai secar em algum momento. Quando isso acontecer, todo mundo vai ter de encolher para conseguir arcar com o custo real dos modelos mais novos, e terá de cobrir esses custos enormes com assinaturas ou outras formas de monetização. Já vimos a SORA ser reduzida por queimar dinheiro rápido demais, enquanto a China, nesse meio-tempo, lançou uma sequência de modelos de vídeo muito melhores
Integrar modelos a outros produtos também é central, e até nessa área o open source está acompanhando e provavelmente vai acabar ultrapassando quando o dinheiro de VC secar
Segundo as reportagens, eles são lucrativos no lado da inferência, e o dinheiro de VC está indo para construir mais datacenters para rodar mais inferência. O modelo de assinatura para programação pode ficar em torno do zero a zero em média, mas o dinheiro está nas APIs
Também é exagero dizer que modelos chineses rodam em hardware de consumo. Ninguém está rodando um modelo de 1.6T tokens como DeepSeek v4 em hardware de consumidor
O custo de treino também não é muito mais barato do que o dos modelos americanos. As big techs chinesas subsidiam o treinamento, e os modelos são um pouco mais baratos porque são menores e mais fracos do que os modelos de 5T e 10T treinados pelos laboratórios de ponta dos EUA. Os laboratórios americanos também gastam com dados de aprendizado por reforço mais variados, e essa diferença aparece no desempenho em vários benchmarks
O caso da Sora, na verdade, prova o ponto do texto. A OpenAI não encerrou a Sora; só fechou a versão por assinatura e a rede social esquisita, e ela continua acessível por API
Os modelos chineses de vídeo também são modelos via API e, assim como LLMs são lucrativos para os laboratórios de ponta dos EUA, é provável que eles também sejam lucrativos para os chineses. Os preços dos modelos de vídeo estão em [1]; a faixa varia bastante, mas Google Veo e OpenAI Sora ficam em preço parecido com os modelos chineses
[1] https://openrouter.ai/models?output_modalities=video
Uma coisa interessante que a Anthropic fez foi colocar sua stack sobre vários provedores de nuvem. Primeiro colocou na AWS, num nível que até agora era difícil ver em grandes provedores de IA, então fico curioso para saber se depois vai para GCP e Azure também
Se uma empresa puder ter sua própria stack Claude na sua própria nuvem, como uma stack ELK, então, se isso também chegar a Azure e GCP, a OpenAI realmente vai ter de correr atrás
Pessoalmente, quero usar mais IA que possa rodar numa infraestrutura pela qual eu pago. Assim, se houver falha, ela fica isolada, e eu ainda posso substituir por outra região ou outro datacenter
Também continua me surpreendendo que Microsoft ou Amazon não ofereçam seus próprios modelos com mais destaque como produto de nuvem. A Microsoft até parece o tipo de empresa que colocaria o Phi por lá, mas não o promove muito. Especialmente em algo como Copilot for Devs, poderia usar computação mais barata com modelos tipo Phi, e a Microsoft deveria até renomear isso tudo para deixar mais claro o que Copilot significa
Distribuir computação é um problema de hardware, mas lançar um bom modelo exige mais do que computação; exige bons engenheiros de IA. SpaceX, Amazon e outras podem ser excelentes em hardware, mas não necessariamente no mesmo nível em engenharia de IA
https://azure.microsoft.com/en-us/blog/introducing-anthropic...
https://docs.cloud.google.com/gemini-enterprise-agent-platfo...
Claude já está disponível no AWS Bedrock há bastante tempo
O novo anúncio de “Claude Platform” é sobre uma versão operada pela Anthropic em cima da AWS, não diretamente pelo Bedrock. A diferença pode ser vista aqui: https://platform.claude.com/docs/en/build-with-claude/claude...
Esse desejo de rodar na sua própria infraestrutura paga também já é atendido pelo Claude há bastante tempo
Um dos motivos de a OpenAI ter se afastado da Microsoft foi justamente poder ser oferecida na AWS. Eles viram demanda relevante na AWS, e ficar só no Azure estava atrapalhando