- Com as ferramentas de AI reduzindo drasticamente o custo e a necessidade de mão de obra no desenvolvimento de software, a pergunta central passa a ser: qual é, afinal, a barreira de entrada dos negócios de software?
- Agora que a AI pode substituir a maior parte do trabalho de transformação, apenas os dados do mundo real gerados por humanos permanecem como o único moat que a AI agente não consegue replicar
- O mercado de dados está se bifurcando entre “dados gerados por humanos” e “dados gerados por AI”; os primeiros estão se valorizando, enquanto os segundos estão virando commodity
- Softwares de transformação simples (fluxos como Excel → PDF → e-mail) podem ser substituídos por AI agente, mas a coleta contínua de dados em grande escala e os systems of record não podem ser substituídos
- Garantir paridade de API (equivalência funcional entre UI, REST e MCP) e acumular metadados será a principal vantagem competitiva dos negócios de software daqui para frente
A mudança do moat do software na era da AI
- Ferramentas baseadas em LLM tornaram o desenvolvimento de software complexo dramaticamente mais fácil, mas não o resolveram por completo
- Ainda é preciso um orquestrador (alguém que saiba o que construir), um papel que fica na interseção entre gestão de produto, customer development e engenharia, além da capacidade técnica
- O que antes exigia 10 pessoas para criar algo relevante está caminhando para 3, 2 ou até 1 pessoa
- Quando produtos de software se tornam fáceis de lançar e manter, os moats tradicionais (dificuldade de desenvolvimento, transformação de conhecimento de domínio em produto etc.) passam a ser, em grande parte, substituídos pela AI
A Grande Bifurcação dos Dados
- O mundo dos dados está se dividindo em dois caminhos
- Dados gerados por humanos: episódios de podcast, vídeos, posts em redes sociais, posts de blog e outros conteúdos criados diretamente por pessoas
- Dados gerados por AI: imagens criadas por AI, voz sintética por TTS, vídeos inteiramente produzidos por AI, e-mails de spam escritos por agentes etc.
- Dados humanos ganham valor por sua escassez e singularidade, enquanto dados gerados por AI, à medida que os modelos ficam mais rápidos e baratos, caem para o status de commodity
- Dados humanos carregam todo o conjunto de conhecimento que só o próprio criador possui, então a única entidade capaz de gerar aquele dado é aquela pessoa
- Como a AI, por definição, não pode criar dados gerados por humanos, dados do mundo real gerados, verificados e refinados por humanos serão, na próxima década, o único moat confiável para fundadores de software
Caso Podscan: o moat de dados na prática
- O principal valor do serviço de monitoramento de podcasts Podscan não está na velocidade de coleta de feeds RSS nem na velocidade de resposta da API
- O valor real está nos dados de transcrição e análise por AI (palavras-chave, temas, análise de sentimento) de 50 milhões de episódios de podcast
- O valor agregado central está em coletar dados públicos (episódios de podcast) e transformá-los em um formato transcrito, convertido e acessível
- Isso pode ser usado para diversos fins, como rastrear menções de marca, identificar tendências em tempo real e avaliar patrocínios em podcasts
- Quanto maior a fidelidade e o frescor dos dados, maior o valor percebido pelo cliente
- Mesmo que a UI seja ruim ou a API seja limitada, os clientes dão um jeito de acessar os dados — os dados em si são o que importa
- Se o produto oferecesse apenas uma função que recebe uma URL, faz a transcrição e a análise, isso poderia ser substituído em 2 horas com uma skill dentro do Claude Code
- Processar com agentes a coleta, transcrição e análise de 50 mil episódios por dia levaria o custo de API para algo na casa de dezenas de milhares de dólares por dia, tornando isso praticamente inviável
A vulnerabilidade do software de transformação
- Softwares puramente transformacionais que recebem dados de entrada, processam e entregam uma saída são vulneráveis à AI agente
- Ex.: “ChatGPT, pegue este arquivo Excel, crie um relatório, exporte para PDF e envie por e-mail” — isso pode ser executado de forma autônoma sem serviços externos
- A própria AI pode implementar ou reutilizar implementações existentes para parsing de Excel, consultas analíticas, renderização de PDF e envio de e-mail
- Negócios SaaS voltados a fluxos como Excel → relatório → e-mail deixam de ser necessários
- Em contrapartida, coleta contínua de dados em grande escala é uma área difícil de substituir com agentes
- Isso se deve ao caráter temporário dos agentes, que existem apenas por sessão (como em Cursor, Claude Code ou conversas no ChatGPT)
- Agentes sempre ativos para escanear e executar tarefas consomem tantos tokens que se tornam economicamente inviáveis
Estratégia de negócio API-first
- No cenário atual, uma estratégia API-first é uma das escolhas mais inteligentes para negócios de software
- MCP é apenas uma camada sobre APIs REST existentes, e acesso programático, MCP, API e webhooks compartilham a mesma essência: conexões confiáveis entre computadores
- Entre fundadores, cresce a demanda por paridade funcional entre UI e API
- Quanto mais tudo o que pode ser feito na UI também puder ser feito da mesma forma pela API, maior a chance de adoção do produto pelos clientes
- Na era dos agentes, a possibilidade de automação se torna um fator central na decisão de compra
- O Podscan mantém um platform parity tracking file
- Para cada funcionalidade, é mantida uma tabela indicando suporte em UI, REST API e MCP
- Um subagente do Claude Code analisa a base de código e atualiza esse arquivo periodicamente
- Isso inclui desde funções simples, como “busca de podcasts”, até fluxos complexos, como “alerta de palavra-chave para menção de marca → adicionar à lista → disparar webhook”
- É preciso atender de forma equivalente os três tipos de usuário: usuário humano, usuário computador e usuário agente
Metadados são o moat
- O moat de dados não se limita a dados de podcast
- Os metadados coletados durante o uso da plataforma (horário de publicação, horários com maior engajamento, tipos de conteúdo que geram mais interação etc.) formam um moat de dados próprio
- Ex.: em uma ferramenta de publicação para Twitter ou Facebook, os dados de padrão de comportamento do usuário são o moat
- Possuir os dados é metade do moat; torná-los acessíveis é a outra metade
- A tarefa central é identificar quais fontes internas de dados com valor agregado seu produto possui e como conectá-las para torná-las acessíveis
2 comentários
Assim como o treinamento do AlphaGo foi feito com dados de autojogo AlphaGo vs AlphaGo, o treinamento de LLMs está sendo feito gerando dados com os próprios LLMs. Como, com apenas algumas amostras de dados, já é fácil criar mais dados, também é difícil ver isso como um fosso defensável realmente seguro.
Talvez seja algo como a diferença entre aprendizado por reforço e deep learning. Em contextos em que não é possível fornecer um loop de feedback decisivo, os dados humanos ainda parecem ser o fosso defensivo.