Como a OpenAI vai competir?
(ben-evans.com)- A OpenAI conquistou uma grande base de usuários sem uma vantagem tecnológica proprietária, mas o engajamento e a retenção dos usuários são baixos, em uma estrutura sem efeitos de rede
- Atualmente, mais de 6 organizações já lançam modelos de fronteira em nível equivalente e estão se ultrapassando em intervalos de poucas semanas, de modo que nenhuma empresa conseguiu garantir uma vantagem estrutural que os concorrentes não possam alcançar
- Google e Meta estão ampliando rapidamente sua participação de mercado ao aproveitar a vantagem de produtos existentes e canais de distribuição, e o ChatGPT está em uma situação em que é difícil sustentar a liderança inicial em um produto não diferenciado
- A OpenAI apresenta uma estratégia de plataforma full-stack, de chips e infraestrutura até apps de consumo, mas não tem efeitos de rede nem lock-in de ecossistema como Windows ou iOS
- O verdadeiro desafio estratégico é quem vai criar a próxima geração de experiências e casos de uso de IA que ainda nem foram inventados, em um cenário no qual ninguém consegue inventar tudo sozinho
- No fim, a competitividade da OpenAI depende de capacidade contínua de execução e velocidade de adaptação ao mercado, o que se parece mais com uma competição de execução diária do que com estratégia
Quatro desafios fundamentais da OpenAI
- 1. A OpenAI não tem vantagem proprietária em tecnologia nem em produto; sua base de usuários é grande, mas o engajamento e a retenção são baixos, e não há efeitos de rede
- O modelo em si está em um nível semelhante ao dos concorrentes, e há falta de product-market fit em produtos para consumidor
- 2. A estrutura de captura de valor e a experiência de produto no mercado de IA estão mudando rapidamente. Líderes já estabelecidos e milhares de fundadores estão criando novas funções, experiências e modelos de negócio, o que traz o risco de os modelos fundacionais virarem infraestrutura genérica de baixa margem
- 3. OpenAI e Anthropic enfrentam a dificuldade de entrar em uma indústria intensiva em capital sem distribuição nem fluxo de caixa vindos de uma base de produtos existente (Cross the Chasm)
- Mesmo empresas com produtos já existentes precisam se canibalizar, mas a fase em que se dizia que o Google não conseguiria fazer IA já ficou para trás há muito tempo
- 4. Por causa de uma estrutura organizacional centrada em pesquisa, o controle sobre roadmap de produto e estratégia é limitado. Você abre o e-mail de manhã e o laboratório resolveu alguma coisa; o trabalho é transformar isso em um botão
> "Jakub e Mark definiram a direção de pesquisa de longo prazo. E, depois de alguns meses de trabalho, surgiu um resultado incrível, e um pesquisador me procurou para dizer: 'Descobrimos algo realmente impressionante. Como vocês vão usar isso no chat? Como isso vai ser aplicado aos nossos produtos corporativos?'"
> Fidji Simo, Chief Product Officer da OpenAI (2026)
> "Você precisa começar pela experiência do cliente e voltar desenvolvendo a tecnologia. Não pode começar pela tecnologia e depois pensar onde vendê-la."
> Steve Jobs (1997)
- A OpenAI tem tecnologia excelente e talentos ambiciosos, mas, ao contrário do Google dos anos 2000 ou da Apple dos anos 2010, não tem algo que funcione de forma clara e que mais ninguém consiga fazer
- As movimentações recentes de Sam Altman podem ser interpretadas como uma tentativa de trocar valor no papel, antes que a música pare, por uma posição estratégica mais durável
Competitividade dos modelos: a ausência de vantagem tecnológica proprietária enfraquece a sustentabilidade da liderança
- Hoje, cerca de mais de 6 organizações lançam modelos de fronteira em nível praticamente equivalente, alternando quem está na frente em intervalos de poucas semanas
- Os benchmarks variam, mas no geral mostram o mesmo quadro
- A Meta saiu da curva atual, Apple, Amazon e Microsoft ainda não entraram de fato na fronteira, e a China está cerca de 6 meses atrás, dependente em grande parte da pesquisa de terceiros
- O tipo de efeito de rede em que a própria participação de mercado se auto-reforça, visto em Windows, Google Search, iOS e Instagram, não existe hoje na competição entre modelos
- Avanços como continuous learning podem permitir efeitos de rede, mas, por enquanto, isso não é algo com que se possa planejar
- O acesso a dados proprietários também pode vir a criar um efeito de escala real, mas não está claro como seria esse efeito em dados de usuários ou dados verticais (SAP, Salesforce, planilhas de bancos de investimento etc.), e as plataformas incumbentes já possuem muitos dados
Base de usuários: ampla, mas com engajamento raso e hábito de uso fraco
- A OpenAI tem 800 a 900 milhões de usuários, mas esse número é de 'usuários ativos semanais'; o ponto importante é que ela divulgou WAU, não DAU
- Divulgar métricas centradas em atividade semanal sugere que a maioria ainda não transformou isso em hábito diário, o que indica baixo engajamento/stickiness
- Entre os usuários do ChatGPT, apenas cerca de 5% pagam assinatura
- Mesmo entre adolescentes nos EUA, é muito mais comum usar algumas vezes por semana ou menos do que várias vezes por dia
- Segundo os dados promocionais de '2025 Wrapped', 80% dos usuários enviaram menos de 1.000 mensagens em 2025, o que equivale a menos de cerca de 3 prompts por dia, em média
- A maioria dos usuários não percebe diferenças de personalidade ou ênfase entre modelos, e funções para aumentar retenção, como 'memory', são apenas mecanismos de retenção, não efeitos de rede reais
- Embora se fale em “transformar a forma como usamos computadores”, se o uso acontece só algumas vezes por semana, é difícil dizer que isso mudou a vida das pessoas
- A própria OpenAI reconhece um 'capability gap' entre a capacidade do modelo e o uso real, o que é uma forma indireta de admitir a ausência de product-market fit claro
Estratégia de publicidade e tentativa de aprofundar o engajamento
- O projeto de anúncios da OpenAI busca cobrir, do ponto de vista de custos, o atendimento aos mais de 90% dos usuários gratuitos, além de antecipar aprendizado e posicionamento junto a anunciantes
- Estrategicamente, o objetivo também é oferecer aos usuários gratuitos os modelos mais novos e mais poderosos (e mais caros) para aprofundar o engajamento
- Fidji Simo disse que "distribuição e escala são o mais importante"
- No entanto, é incerto se oferecer um modelo melhor vai aumentar o engajamento de usuários que hoje nem conseguem pensar no que fazer com o ChatGPT
- Também é igualmente possível que os usuários estejam travados pelo blank screen problem, ou que o próprio formato de chatbot não seja adequado para esse caso de uso
Alta de participação de Gemini e Meta AI, e o paralelo com o Netscape: chatbots sem diferenciação
- Em produtos não diferenciados, é difícil sustentar a vantagem de adoção inicial, e a competição tende a migrar para marca e canais de distribuição
- O ganho rápido de participação de Gemini e Meta AI mostra isso; para o usuário comum, os produtos parecem quase iguais
- O Llama 4 foi avaliado como um fracasso pela comunidade técnica, mas os números da Meta parecem bons
- O Claude, da Anthropic, está entre os melhores em benchmarks, mas não tem estratégia nem produto para consumidor, e seu reconhecimento entre consumidores é quase zero
- O Claude Cowork exige algo no nível de instalar Git
- Há quem compare o ChatGPT ao Netscape: uma situação parecida com a da entrada da Microsoft, via distribuição, em um mercado em que era difícil diferenciar o produto
- A dificuldade de diferenciar navegadores web e a dificuldade de diferenciar chatbots são o mesmo problema estrutural: ambos são basicamente uma caixa de entrada e uma caixa de saída
- A última grande inovação de produto bem-sucedida em navegadores foi a integração entre abas e a barra de busca/URL
- A Microsoft dominou o mercado de navegadores, mas isso acabou não importando tanto: a verdadeira captura de valor foi gerada em outro lugar
- O app do ChatGPT é apenas um 'thin wrapper', e é difícil se diferenciar apenas adicionando funções
- A inovação na experiência do usuário é a chave da próxima etapa, mas não está claro quem vai liderá-la. Não há uma resposta para por que esse papel deveria ser da OpenAI
- Enquanto todos os fundadores do Vale do Silício competem para inventar a “segunda etapa da experiência de IA generativa”, fica a pergunta: “isso é algo que dá para planejar e fazer acontecer para mim mesmo?”
A estratégia de plataforma da OpenAI e seus limites
- No último ano, a reação da OpenAI teve um tom de "tudo, de uma vez, ontem": plataforma de apps, navegador, app social de vídeo, colaboração com Jony Ive, pesquisa médica, publicidade, anúncio de capex na casa dos trilhões de dólares etc.
- Houve uma tendência de copiar formas de plataformas bem-sucedidas do passado sem compreender sua lógica: uma abordagem do tipo "plataformas têm app store, então nós também precisamos de uma app store"
- No fim do ano passado, Sam Altman apresentou a estratégia completa em um diagrama, recorrendo a uma famosa citação de Bill Gates: "A definição de plataforma é criar mais valor para os parceiros do que para si mesma"
- A estrutura estratégica é a de uma empresa de plataforma full-stack, construída de baixo para cima, de chips e infraestrutura em diante; cada camada reforçaria as outras, oferecendo nuvem, chips e modelos, além de ecossistema e efeitos de rede
- Mas esse é o modo como Windows e iOS funcionavam, e hoje a OpenAI não tem essa dinâmica de plataforma e ecossistema
- Até o diagrama da relação entre capex e receita apresentado pelo CFO não é um flywheel de verdade
Competição de capex: condição para sentar à mesa
- As quatro maiores empresas de cloud gastaram cerca de US$ 400 bilhões em infraestrutura no ano passado e planejam pelo menos US$ 650 bilhões neste ano
- A OpenAI afirmou promessas de US$ 1,4 trilhão e 30 gigawatts de computação para o futuro, mas sem cronograma concreto, e no fim de 2025 o uso real era de 1,9 gigawatt
- Como não tem grandes fluxos de caixa de negócios já existentes, depende de captação de recursos (parte ainda não concluída) e do uso de balanços de terceiros, sendo que parte disso é 'circular revenue'
- No longo prazo, os custos de infraestrutura de IA podem seguir uma lógica parecida com a de fabricação de aeronaves ou de semicondutores: sem efeitos de rede, mas ficando mais difícil e mais caro a cada geração, o que sustentaria um oligopólio de poucas empresas capazes de continuar investindo
- A analogia contrapõe a Moore's Law (dobro de transistores a cada 2 anos) à Rock's Law (dobro do custo de uma fábrica de semicondutores de ponta a cada 4 anos)
- Quando Sam Altman sugere um capex anual da ordem de US$ 1 trilhão, isso pode ser visto como uma tentativa de criar uma 'profecia autorrealizável', com uma empresa que não tinha receita três anos atrás tentando conquistar um lugar à mesa na força de vontade
- Mas não está claro se sentar à mesa oferece alguma vantagem além disso: a TSMC é praticamente monopolista em chips de ponta, mas quase não tem alavancagem nem captura de valor nas camadas superiores da stack
API, padrões e efeitos de rede: possibilidades e limites
- Mesmo que desenvolvedores construam produtos usando um modelo fundacional específico, os usuários não sabem nem se importam com qual modelo está sendo usado
- Operar a cloud não dá alavancagem sobre produtos e serviços de terceiros nas camadas superiores da stack
- A nova diferença é o surgimento de uma sopa de letrinhas de padrões e protocolos para comunicação entre modelos e sites (a febre do OpenClaw capturou parte disso)
- Sites podem expor suas próprias funções para que pesquisas imobiliárias ou carrinhos de compra apareçam diretamente no ChatGPT
- Dá para instruir um agente a ver uma receita no Instagram e pedir os ingredientes no Instacart
- A OpenAI sugere que a conta do ChatGPT sirva como a cola que conecta tudo isso, insinuando que aí poderia surgir um efeito de rede
- Mas existe o problema da 'widget fallacy': o erro recorrente de achar que produtos complexos podem ser abstraídos em uma interface padrão simples
- É a mesma ideia de dez anos atrás de que "API é o novo BD", e na maior parte das vezes isso fracassou
- Existe uma grande distância entre o que parece legal em demo e o modelo de interação de um workflow real
- Nenhuma empresa quer virar apenas uma chamada simples de API de outra empresa: há uma tensão fundamental entre distribuição e controle do relacionamento com o cliente
- Se esses sistemas forem conectados por APIs abstraídas, não está claro por que usuários ou desenvolvedores ficariam presos a apenas um deles
- Mesmo que OpenAI e Gemini usem padrões diferentes, não há motivo para que desenvolvedores não deem suporte a ambos, com muito menos código do que desenvolver apps separados para iOS e Android
- Também é discutível se faz sentido usar a mesma conta para fazer login em Tinder, Zillow e Workday
A pergunta central: a ausência de 'power'
- Termos como plataforma, ecossistema, alavancagem e efeitos de rede são usados com frequência na indústria de tecnologia, mas seu significado real costuma ser vago
- O conceito central é 'power': a capacidade de fazer com que usuários usem um sistema específico mesmo quando não querem
- Microsoft, Apple, Facebook e Amazon possuem esse tipo de power
- O que uma plataforma realmente faz é aproveitar a energia criativa de toda a indústria de tecnologia para construir em escala sem precisar inventar tudo diretamente, mas fazendo com que tudo aconteça sobre o seu sistema
- Modelos fundacionais claramente têm efeito multiplicador, mas, se concorrentes conseguem fazer a mesma coisa, não existe razão para que todos tenham de usar o de uma empresa específica
- Se não houver uma razão estrutural para permanecer sempre melhor, por mais dinheiro e esforço que os concorrentes invistam, então o que sobra é apenas execution diária
- Vantagem em execução pode ser uma ambição, e algumas empresas conseguiram mantê-la por muito tempo, mas isso não é estratégia
Conclusão
- A OpenAI está sem uma vantagem monopolística em tecnologia, produto ou ecossistema
- Apesar da grande base de usuários e do poder de capital, a construção de uma vantagem competitiva sustentável segue incompleta
- A ausência de efeitos de rede de plataforma, os limites de diferenciação de produto e a incerteza sobre investimentos em infraestrutura são os principais riscos
- No fim, a competitividade da OpenAI depende de execução diária e velocidade de adaptação ao mercado
Notas
- Comparação com a estratégia da era ZIRP de 'usar capital como arma': em um período de juros baixos, empresas tentaram ganhar escala com capital barato e depois se defender com efeitos de rede; funcionou com Uber, mas fracassou com WeWork, que não tinha efeitos de rede — a OpenAI é semelhante nesse ponto
- Um resultado totalmente diferente também é possível: pode haver uma enorme quantidade de modelos de vários tamanhos e formatos, alguns rodando de graça na edge, tornando um oligopólio de infraestrutura de IA tão irrelevante quanto um oligopólio de infraestrutura SQL
- Microsoft, Google, Apple e Meta nunca acharam que já tinham vencido, mesmo em ambientes de winner-takes-all, e sempre olhavam para trás
- A frase de Andy Grove, "só os paranoicos sobrevivem", simboliza essa mentalidade
- A Intel já teve efeitos de rede e vantagem tecnológica, e perdeu ambos
1 comentários
Comentários no Hacker News
As pessoas estão subestimando a aderência (stickiness) da OpenAI
Ter quase 1 bilhão de usuários é uma verdadeira barreira de entrada
Até minha esposa usa o ChatGPT todos os dias, mas não vê motivo para tentar outra coisa
Há muito histórico de conversa, o que dificulta migrar, e monetização baseada em anúncios parece uma escolha natural
No mercado consumidor, a OpenAI está em uma posição melhor do que os outros concorrentes
Quase não há efeito de rede nem curva de aprendizado de UI, e só o histórico de conversa dificilmente explica esse valor
Além disso, como recursos de IA provavelmente virão embarcados por padrão na maioria dos dispositivos e apps, há grande chance de isso acabar virando commodity no nível de API de backend
Usuários gratuitos provavelmente migrariam imediatamente para outro serviço gratuito se os anúncios aumentassem
Na prática, minha parceira foi para o DeepSeek durante uma indisponibilidade recente e não voltou mais
A matéria do The Register diz a mesma coisa
Na verdade, o Google pode estar em posição melhor — se integrar à IA dados pessoais como e-mails, fotos e histórico de localização, dá para oferecer uma personalização muito mais forte
No uso corporativo, a integração com Google Docs e GCP também é natural
No longo prazo, parece até possível um modelo de substituir equipes por “IA + alguns engenheiros do Google”
Ao tentar atingir alvos demais ao mesmo tempo, há o risco de cair numa posição “mais ou menos para todo mundo”
O fato de não possuir a infraestrutura diretamente também é um fator de insegurança
Se a moda mudar, a OpenAI pode ser deixada para trás por algo como Grok ou Perplexity
Matéria relacionada: MIT Technology Review
Fico curioso sobre quanto tempo vai levar até que modelos locais cubram a maioria dos casos de uso
Daqui a uns 5 anos, a OpenAI de hoje talvez pareça um sistema VAX dos anos 1970
No fim, para um LLM local ficar bom o suficiente, seria preciso permitir acesso à API do Google
Olhando para a velocidade de crescimento da VRAM em GPUs de consumo, parece difícil operar modelos locais de alto desempenho antes de 2035
Modelos mais rápidos seriam bons, mas ainda exigiriam chips caros, e transformar isso em produto de consumo deve levar tempo
Datacenters são muito mais eficientes do que home servers, então modelos locais podem acabar ficando como nicho
Eu prefiro serviços de chat com IA focados em privacidade
Comparei o Lumo+ da Proton com o Duck.ai da DuckDuckGo e escolhi o Lumo+
O histórico de conversa fica integrado aos dados da Proton e acessível em todos os dispositivos
Para trabalho técnico uso Gemini Plus ou Anthropic, mas para conversas pessoais uso IA privada
Em situações sensíveis, como problemas de saúde na família, a proteção de dados pessoais deveria ser o padrão
O risco de privacidade é só teórico; na prática, a utilidade é muito maior
Para tarefas sensíveis, eu uso Kimi-k2 no Tinfoil
Não é tão diferente dos BigLabs, mas há serviços como privatemode.ai e confer.to que buscam um nível de confidencialidade no padrão Apple AI
Acho que este texto é a melhor análise da capacidade de defesa econômica da OpenAI
A OpenAI parece estar adotando uma estratégia para que o mercado a transforme em uma entidade “impossível de derrubar”
O fato de a disputa em IA se transformar em competição política entre países também parece fazer parte dessa estratégia
O ceticismo do público em relação à IA é grande, e mesmo um fracasso não causaria um impacto social tão grande
O Google Gemini é o melhor em integração (Android, WearOS, Google Home, reconhecimento de voz etc.)
O Anthropic Claude se destaca pela integração para programação
A Meta mantém presença via open source, mas não lidera o mercado
O UX de frontend do Claude é melhor, mas o Codex tem o melhor custo-benefício
Como a comunidade open source tem acesso a estruturas parecidas, o diferencial do ClaudeCode é menor
Depois que a OpenAI começou a exibir o aviso “a memória está quase cheia”, passei a usar várias IAs em paralelo
Distribuo o uso entre Grok, Alexa+, Gemini Plus, Copilot, Claude Code, Opencode etc.
Gosto dessa estrutura em que não fico dependente de nenhuma só
Posso migrar para outro serviço a qualquer momento, se precisar
A oportunidade de integração vertical (vertical integration) está sendo subestimada
Assim como a Anthropic disse que não faria um IDE próprio e depois mudou de direção com o Claude Code, há muito espaço para expandir em áreas como direito, medicina etc.
Como modelos open source ficam 6 a 12 meses atrás, a diferença pode aumentar
Pensando só em geração de código, isso já deve ser suficientemente utilizável
Se AGI se concretizar, todas as empresas baseadas em conhecimento talvez percam o sentido
Parece improvável que novas empresas de IA entrem com facilidade
Se um produto como “Claude for Accountants” for mais caro que o Claude normal, fica pouco convincente
Se o avanço da IA continuar, a atual filosofia centrada no usuário ao estilo Steve Jobs pode não combinar com a direção da IA
O ChatGPT não foi criado para resolver um problema específico de usuário, e sim acabou virando um produto com apelo de mercado por acaso
A Apple ainda parece não saber como lidar com IA, mas precisa aprender abordagens centradas em ferramentas como as da Anthropic ou OpenClaw
A OpenAI também tem lições a oferecer, mas não está numa posição tão vantajosa quanto Apple ou Google
No fim, o mercado de IA deve caminhar para um ecossistema muito mais diverso
Quando visitei a Costa Rica como falante nativo de inglês, vi com frequência moradores locais usando o ChatGPT para tradução quando havia barreira de idioma
Esses artigos apocalípticos sobre IA em geral falam do ponto de vista de valuation corporativo
Mas, do ponto de vista da humanidade, a leitura é até otimista
Nesta geração da computação, talvez nenhuma empresa específica tenha poder para empurrar as pessoas numa direção indesejada
E isso é uma boa notícia