- A ascensão da IA baseada em LLM e dos workflows com agentes está desmontando de forma fundamental a lógica econômica do SaaS, enquanto a queda acentuada do custo da inteligência está reorganizando o fluxo de valor no mercado de tecnologia enterprise
- Só a vantagem de custo dos serviços de IA não é suficiente para construir um moat sustentável, e startups dependentes de infraestrutura de LLM enfrentam o problema do despachante de táxi — uma estrutura apoiada sobre margens emprestadas
- De acordo com o Paradoxo de Jevons, o gasto total com IA explode, mas esse valor não retorna para todos os participantes existentes do mercado, vindo acompanhado de uma grande reorganização da cadeia de valor
- As empresas que vencem em Vertical AI não são prestadores de serviço externos, mas sim as que constroem sistemas profundamente incorporados à operação do cliente — gravidade de dados, efeitos de rede e lock-in de plataforma são os fatores centrais
- Usar a estratégia de baixo preço como uma wedge intencional para conquistar posicionamento no mercado e depois migrar para uma plataforma de inteligência composta é a única estratégia realmente sustentável
Mudança estrutural: do SaaS para a era dos agentes de IA
- O mercado de tecnologia enterprise está passando por uma transformação estrutural comparável à transição do on-premise para a nuvem
- Por cerca de 20 anos, o modelo SaaS gerou trilhões de dólares em valor de mercado com base em receita recorrente, licenciamento por assento e engajamento do usuário como proxy de valor
- A ascensão da IA baseada em LLM e dos workflows com agentes está desmontando essa lógica econômica do SaaS
- O principal motor é a queda acentuada do custo da inteligência — o custo para um mesmo nível de inteligência está caindo rapidamente
- Ainda assim, com o aumento da complexidade de inferência, o gasto total com tokens continua crescendo (mesmo com a queda do preço por token)
- Com a forte competição entre labs capitalizados como OpenAI, Google e Anthropic, além dos ganhos de eficiência em hardware e software, a tendência é que isso não desacelere
A pressão deflacionária dos serviços de IA
- Quando agentes substituem serviços manuais tradicionais, o gasto correspondente não é capturado integralmente; ocorre uma comoditização do serviço
- Um serviço que há alguns anos custava US$ 100 mil tende no fim a valer apenas uma fração disso
- A IA barata cria uma pressão deflacionária persistente sobre produtos de Vertical AI
- Funções como extração de dados de documentos, atendimento de chamadas inbound e elaboração inicial de relatórios de compliance ainda podem ser ótimas wedges porque a infraestrutura e o know-how atuais são escassos e a adoção ainda é baixa, mas em breve virarão table stakes
- Em cada categoria já existem várias startups bem financiadas e em crescimento, então a concorrência tende a eliminar margens extraordinárias
- Até lá, startups que não tiverem construído um moat serão eliminadas
Serviços de IA vs. software: o paradigma da entrega de serviços
- Quando o custo marginal da inteligência converge para zero, a proposta central de valor da tecnologia empresarial deixa de ser uma ferramenta de apoio ao trabalho e passa a ser a entrega de resultados que substituem trabalho
- Vertical AI consegue assumir mais workflows end-to-end do que Vertical SaaS sozinho, o que aumenta muito o valor para o cliente e a disposição a pagar, abrindo acesso a orçamentos muito maiores
- Ainda assim, a posição aqui é de discordância com a visão predominante atual de que a entrega de serviços — uma relação com o cliente parecida com a de um fornecedor externo, e não de uma plataforma interna — será o paradigma dominante do software de IA
Um TAM maior não faz todas as startups decolarem
- A queda brusca do custo da inteligência expande fortemente o TAM dos serviços de IA, mas essa ampliação da oportunidade não necessariamente fica no mesmo ponto da cadeia de valor
- O caso das planilhas e da contabilidade: após a introdução do Microsoft Excel (1987), o número de escriturários e auxiliares de contabilidade caiu de cerca de 2 milhões para 1,5 milhão, enquanto contadores e auditores subiram de cerca de 1,3 milhão para 1,5 milhão, e analistas de gestão e gestores financeiros passaram de cerca de 600 mil para 1,5 milhão (segundo pesquisa do Morgan Stanley)
- As planilhas não apenas automatizaram a escrituração; elas moveram o valor para cima na curva de habilidade — do trabalho repetitivo para análises de ordem superior
- O caso do Uber e do ride-hailing: além da redistribuição dentro da cadeia de valor, houve até eliminação completa de uma camada intermediária
- O mercado global de táxis cresceu de cerca de US$ 69 bilhões em 2019 para cerca de US$ 271 bilhões em 2024; antes do Uber, o mercado tradicional de táxis girava em torno de US$ 30 a 50 bilhões
- O gasto total com “chamar um carro para ir a algum lugar” cresceu cerca de 5 a 8 vezes em 15 anos, enquanto o preço por corrida caiu aproximadamente pela metade (com recuperação de 10 a 20% após a era dos subsídios de VC)
- Historicamente, a receita ficava com proprietários (operadores-proprietários, donos de medalhões em NYC etc.), corretores (agências de táxi, despachantes, garagens) e motoristas assalariados
- A maior parte desses agentes foi desestruturada, e a receita das agências foi absorvida por Uber e Lyft
- O preço dos medalhões de NYC despencou do pico de cerca de US$ 1 milhão em 2013 para menos de US$ 100 mil hoje (com sinais de recuperação parcial por intervenção do governo)
Paradoxo de Jevons e IA enterprise
- O mesmo paradoxo de Jevons está acontecendo agora na IA enterprise
- Mantidos fixos qualidade do modelo, contexto e complexidade de inferência, o custo por unidade de inteligência está despencando
- O custo de inferência em nível GPT-3.5 caiu mais de 280 vezes entre novembro de 2022 e outubro de 2024
- Em 2023, usar LLM para ler e classificar todos os e-mails recebidos por uma empresa de médio porte era caro; hoje, a cerca de US$ 0,40 por milhão de tokens, isso se torna praticamente irrelevante
- Com ferramentas de coding com IA, atualmente 41% do código é gerado por IA ou assistido por IA — reduzindo ainda mais as barreiras de entrada
- O gasto total com IA cresce de forma explosiva: a receita de IA enterprise salta de US$ 1,7 bilhão em 2023 para US$ 37 bilhões em 2025, um aumento de 22 vezes em dois anos
- A projeção é que o gasto global com IA ultrapasse US$ 2,5 trilhões em 2026 (IDC)
- O Gartner antecipou em dois anos sua previsão para o momento em que IA representará um terço de todo o gasto de TI
- A pergunta central não é se o bolo vai crescer, mas quem vai comer
O problema do despachante de táxi
- Existe uma tese popular de que AI Services (“Service-as-Software”) é o modelo de negócio vencedor
- A Foundation Capital enquadra isso como uma oportunidade de US$ 4,6 trilhões: orçamentos de TI representam 1 a 2% do PIB, enquanto trabalho e serviços tradicionais passam de 15%
- A lógica é que, se a IA fizer o trabalho de contadores, paralegais e analistas de compliance, então dá para precificar o produto com base no custo total carregado (fully-loaded cost) desses profissionais
- Mas simplesmente oferecer um produto análogo não basta para capturar esses orçamentos no longo prazo
- Serviços são, por natureza, comoditizáveis
- A maioria das startups que cresce distribuindo alternativas baseadas em IA não possui a IP (LLM) que torna essa arbitragem econômica possível — quem possui isso são os labs
- Orquestração básica de workflow, RAG e fine-tuning específico de domínio não são moats sustentáveis
- A aplicação do problema do despachante de táxi à IA: antes do Uber, agências de despacho de táxi capturavam margem ao casar corridas — e tinham alguma defesa por concentrar oferta (densidade de motoristas locais) e demanda (reconhecimento local)
- Mas, quando surgiu uma plataforma capaz de casar oferta e demanda com mais eficiência, externalizar a propriedade dos veículos e ampliar maciçamente a oferta, ao mesmo tempo oferecendo menor custo ao usuário, a competitividade dos despachantes desapareceu
- Os despachantes não perderam por causa do take rate do Uber
- O Uber fica, em média, com cerca de 30% da receita do motorista, algo não tão diferente dos 30 a 50% que agências tradicionais, locadores de medalhão e despachantes extraíam em conjunto
- O moat do Uber não veio de extrair menos, mas de unificar despacho, pagamento, matching, reputação e todas as demais funções intermediárias em uma plataforma única que possui a rede
- Se o principal valor de uma empresa de AI Service é “entregamos esse serviço mais barato com LLM”, então ela é um despachante sentado sobre margens que não são suas
- Essa curva de custo é controlada por model labs, hyperscalers, fabricantes de chips e produtores de energia
- Se os modelos ficarem mais baratos, ou se um concorrente se conectar à mesma API de modelo e cortar o preço, a vantagem de custo converge para zero
- Hoje existem cerca de 35 mil apps wrapper de IA no mundo, uma intensidade competitiva muito maior do que em eras tecnológicas anteriores
- A capacidade de entregar um serviço de forma mais barata e a capacidade de preservar essa margem são coisas diferentes — a questão-chave agora é quem conseguirá capturar de forma duradoura o excedente do consumidor criado pelo colapso do custo da inteligência
Embeddedness e defensibilidade
- Quem captura e retém o excedente são as empresas que constroem defensibilidade para além da curva de custo
- Fontes históricas de defensibilidade em tecnologia enterprise: especialização de domínio, velocidade e execução, parcerias e integrações, gravidade de dados, marca e confiança, lock-in de plataforma
- No estágio inicial, especialização de domínio e velocidade/execução são as principais vantagens, mas enfraquecem rapidamente
- Parcerias e integrações podem durar, embora percam relevância em escala
- No estágio de crescimento, o moat mais importante é o de uso e loops de dados
- Em escala, um negócio defensável de Vertical AI precisa de pelo menos um moat entre gravidade de dados, marca/confiança e lock-in de plataforma
- O eixo mais importante para avaliar um negócio de Vertical AI não é “serviço vs. software”, e sim “interno vs. externo”
- “Interno” não significa necessariamente a UI clássica de um SaaS tradicional na qual o cliente faz login todos os dias — o velho consenso de que o valor está ligado diretamente ao tempo de teclado já não vale mais
- A pergunta central é: a empresa de IA está incorporada à operação do cliente de uma forma estruturalmente difícil de remover?
- Ela detém dados proprietários gerados pelo cliente? Conecta o cliente a contrapartes, fornecedores ou ao ecossistema de um jeito cuja reconfiguração seja dolorosa? Está integrada a workflows adjacentes a ponto de sua remoção causar interrupções em cascata?
- “Externo”: parecido com um fornecedor de serviços tradicional — o cliente aciona quando precisa, mas pode trocar na semana seguinte se surgir uma oferta melhor
- Soluções externas entregam valor real e crescem rápido quando a diferença de custo é grande e a adoção ainda é inicial, mas, por estarem sobre margens emprestadas, ficam expostas à mesma dinâmica competitiva de outras startups de AI Services, incumbentes de SaaS bem financiados e até do próprio comprador
Framework de quatro quadrantes: matriz de avaliação de Vertical AI
- O landscape de Vertical AI pode ser mapeado por dois eixos: interno vs. externo (profundidade de incorporação à operação do cliente) e wedge vs. plataforma (escopo e profundidade do produto)
- Durable (canto superior direito): plataformas internas de IA — System of Intelligence & Action com caminho claro para um moat composto, evoluindo de uma wedge inicial para uma plataforma multiproduto. Abridge e EvenUp são exemplos
- Rare (canto superior esquerdo): plataformas externas — ACV alto com caráter mais consultivo, muitas vezes fazendo dogfooding do próprio produto interno de IA. São instáveis por causa da alta concentração de clientes e da incorporação limitada
- Commodity Risk (canto inferior esquerdo): produtos wedge externos — têm potencial de crescimento inicial extremo, mas enfrentam risco existencial por competir com margens de IA emprestadas
- Precarious (canto inferior direito): wedges internas — têm alto potencial de crescimento inicial e podem se expandir para plataformas defensáveis, mas sofrem com o risco de a wedge ser copiada por incumbentes já líderes em IA
- Há dois caminhos valiosos de transição: de externo para interno (aprofundar a incorporação) e de wedge para plataforma (ampliar a cobertura do produto)
- A transição de wedge para plataforma é o modelo comprovado para construir software vertical sustentável
- Algumas startups começam com wedges externas e altamente escaláveis de AI Services e tentam executar as duas transições ao mesmo tempo
Vertical AI: o baluarte contra a comoditização
- Vertical AI é poderosa porque a dinâmica específica de cada setor cria um terreno fértil para construir soluções diferenciadas profundamente incorporadas ao cliente
- As melhores empresas de Vertical SaaS (Veeva, Procore, Toast, ServiceTitan etc.) venceram não por serem mais baratas, mas por se tornarem systems of record que refletiam com mais precisão as necessidades específicas dos usuários
- É possível customizar Salesforce ou NetSuite gastando milhões em consultoria, mas isso perde sentido quando já existe um sistema feito desde o início para você
- Elas acumulam dados proprietários de setor e first-party data (dados de ensaios clínicos, custos de obras, receitas de restaurantes) de forma que o produto melhora quanto mais é usado
- Ao conectar ecossistemas verticais fragmentados e específicos (farmacêuticas-sites clínicos, contratantes-subcontratados, restaurantes-redes de entrega), constroem um moat de efeitos de rede
- A wedge pode ser um serviço entregue mais barato, mas o moat é o sistema construído sobre essa wedge — usar o posicionamento interno para desenvolver dados proprietários, efeitos de rede, plataforma multiproduto e um “cérebro” do setor, tornando-se infraestrutura da qual o cliente depende, e não um simples fornecedor
- Se a empresa não der esse salto e continuar como prestadora externa de serviços de IA competindo em custo, terá o mesmo destino dos despachantes de táxi — verá o mercado crescer 500% enquanto suas margens convergem para zero
Os vencedores abraçam a comoditização
- Um insight de um fundador numa mesa-redonda da Vertical Collective: “Muita gente vê a corrida ao fundo do poço como algo ruim, mas nós vemos o oposto — a chave real é criar novo valor”
- Competir só por custo é fatal, mas como wedge intencional para conquistar o posicionamento necessário à construção dos moats descritos acima, pode ser extremamente poderoso
- Algumas startups de Vertical AI deveriam abraçar e acelerar intencionalmente a corrida ao menor preço provocada pela comoditização dos AI Services
- Atrair muitos clientes com preços chocantemente baixos, impossíveis de acompanhar pelos players tradicionais
- Canibalizar a própria oportunidade de receita por “resultado” por cliente, mas ganhar crescimento rápido, confiança do setor e o direito de atender esses clientes de outras maneiras
- Enfraquecer a posição de líderes de mercado incapazes de competir, criando um vácuo competitivo e garantindo pole position para expandir
- Essa estratégia é uma variação da estratégia de “Nuking Pricing Power”: desenvolver e sustentar uma versão barata (ou grátis) de um complemento para impulsionar adoção rápida e enfraquecer o poder de precificação desse complemento
- Em termos mais simples: se o produto vai ser comoditizado de qualquer forma, é melhor comoditizá-lo você mesmo para tomar o mercado
Hipótese de valor (Value Hypothesis)
- Toda mudança de paradigma em tecnologia enterprise vem acompanhada de corrida por território e reestruturação
- A computação em nuvem criou milhares de startups SaaS entre 2005 e 2015, mas a maioria foi absorvida, consolidada via M&A ou desapareceu; só poucas viraram plataformas sustentáveis definidoras de categoria
- Em Vertical AI, espera-se o mesmo padrão, porém com mercado maior, crescimento mais rápido, modelos de monetização mais criativos e eficiência de capital inicial mais alta — e, por todos esses motivos, competição sem precedentes
- A armadilha para fundadores de AI Services é confundir uma wedge escalável com um negócio defensável
- As empresas que vão durar são as que usam a janela atual — grande diferença de custo, adoção ainda inicial e incumbentes lentos — para se incorporar tão profundamente à operação do cliente que a troca deixe de ser apenas incômoda e passe a ser estruturalmente dolorosa
- Isso não é uma ideia nova, mas a redescoberta da ideia mais antiga do software enterprise
- O que é novo é a superfície: empresas SaaS conseguiam se incorporar a alguns workflows e capturar dados nas telas de interação do usuário; plataformas AI-native podem se incorporar a todos os workflows, capturar dados em toda interação independentemente da presença humana e construir uma inteligência composta que melhora o produto a cada execução
- Nunca houve oportunidade maior de construir “infraestrutura load-bearing”, e nunca foi tão forte a tentação de se acomodar como “o fornecedor mais barato”
- A “hipótese de valor” de Andy Rachleff: a hipótese de uma startup sobre o que, para quem e como quase nunca está “quase certa” na primeira tentativa — fundadores precisam encontrar não quem diz ter interesse, mas o cliente genuinamente desesperado pelo produto
- Clientes sempre se interessam por um serviço mais barato, mas o que realmente querem — e pelo que pagam para manter — é um sistema que conheça seu negócio melhor do que eles mesmos, acumule conhecimento institucional, conecte-os ao ecossistema e aumente seu valor interno a cada interação
Referência
- Se a IA torna trabalhadores humanos mais eficientes, o modelo de SaaS por assento popularizado pela Salesforce deixa de fazer sentido — quanto melhor o produto, menor tende a ser o gasto do cliente
- Se o objetivo dos agentes autônomos é executar minutas de contrato, resolver tickets de suporte ao cliente e reconciliar livros contábeis sem intervenção humana relevante, então “screen time” deixa de ter significado
- Nesse novo paradigma, eficiência pode ser definida pela ausência de screen time
- A própria UI também está se tornando substituível: a “camada de decisão” de dados, ações e registros continua importante, mas entramos num mundo em que nenhum cliente terá a mesma UI
- Interfaces geradas automaticamente pela plataforma de forma única para cada usuário (“inception software”)
- Ou “Bring Your-Own UI” (BYOUI) por meio de abordagens com agentes via MCP ou apps customizados gerados por LLM
Ainda não há comentários.