1 pontos por GN⁺ 1 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • Modelos de pesos abertos permitem que qualquer pessoa execute LLMs diretamente no próprio hardware, oferecendo proteção para dados sensíveis, flexibilidade para fine-tuning e quantização, e custos de inferência menores em comparação com modelos de fronteira
  • Modelos de institutos chineses como MiniMax, Z.ai, DeepSeek e Qwen são considerados os principais modelos de pesos abertos, enquanto o Gemma do Google e o gpt-oss da OpenAI são geralmente avaliados como estando atrás deles
  • Modelos de pesos abertos exercem pressão de queda nos preços sobre laboratórios de fronteira como OpenAI, Anthropic e Google, porque a possibilidade de migrar para alternativas baratas inibe comportamentos de preço oligopolistas
  • Recentemente, a Meta deixou de divulgar modelos em seu mais novo “Muse Spark”, a Alibaba tem aumentado os lançamentos API-first ou somente via API, e Kimi K2.6 e Mistral também mostram uma tendência de impor condições de licença mais rígidas
  • Se o ecossistema competitivo de pesos abertos enfraquecer, alguns poucos laboratórios de fronteira e alguns institutos chineses poderão capturar uma parcela maior do excedente do consumidor dos usuários de IA, e a destilação também tende a não ser uma solução fundamental, já que exige acesso a modelos-base poderosos

O papel dos modelos de pesos abertos

  • No mercado de LLMs, modelos fechados e modelos de pesos abertos (open weights) coexistiram até aqui
    • Entre os modelos fechados, apesar do nome, estão quase todos os modelos da OpenAI
    • Modelos de pesos abertos vêm sendo divulgados por outros laboratórios, e a série Llama era o exemplo mais representativo
    • Mais recentemente, modelos de institutos chineses como MiniMax, Z.ai, DeepSeek e Qwen (Alibaba) passaram a ser considerados os principais modelos de pesos abertos
    • A série Gemma do Google e os modelos gpt-oss da OpenAI são geralmente avaliados como estando atrás dos modelos chineses
  • Modelos de pesos abertos permitem que qualquer pessoa os execute diretamente em seu próprio hardware
    • Até pouco tempo, modelos que valiam a pena rodar normalmente exigiam hardware muito potente
    • Essa condição está mudando rapidamente, à medida que modelos menores se tornam muito mais úteis
  • A execução local tem três vantagens em relação ao envio de requisições por API para provedores como OpenAI, Anthropic e Google
    • Quando é difícil ou impossível enviar dados sensíveis para datacenters de laboratórios de fronteira, a execução on-premise permite que os dados não saiam da rede
    • Há mais flexibilidade, porque o modelo pode ser usado com fine-tuning ou quantizado (uma forma aproximada de compressão) para se adaptar a condições específicas de hardware
    • Ao usar hardware próprio, basta considerar gasto de capital com hardware, eletricidade e custos operacionais; mesmo com um provedor de hospedagem, o custo por token normalmente fica abaixo de 10% do custo de modelos de fronteira

Pressão de preços e disciplina de mercado

  • Modelos de pesos abertos exercem uma considerável pressão de queda nos preços sobre laboratórios de fronteira
    • Isso se parece, ainda que de forma solta, com a teoria dos contestable markets, segundo a qual mesmo em mercados monopolistas ou oligopolistas empresas incumbentes tendem a agir competitivamente se houver alternativas baratas e confiáveis
    • Em sentido estrito, essa teoria pressupõe custos afundados quase nulos, e o treinamento de modelos de fronteira está mais para o oposto disso
    • Ainda assim, o mecanismo central permanece: a possibilidade potencial de migração por parte dos consumidores disciplina os preços
  • Modelos de fronteira podem cobrar mais caro por conta da maior qualidade e de vantagens contratuais
    • Usuários podem estar dispostos a pagar muito mais por modelos melhores
    • Um contrato de inferência com uma empresa de aproximadamente US$ 1 trilhão tem valor diferente de usar o OpenRouter como provedor barato de inferência
    • OpenAI e outras oferecem compromissos legalmente vinculantes sobre itens como SLA e confidencialidade
  • Mesmo assim, modelos de pesos abertos funcionam como pressão suficiente para dificultar comportamentos de preço oligopolistas
    • Se laboratórios de fronteira aumentassem seus preços em 5 vezes de um dia para o outro, muitos usuários poderiam migrar para modelos de pesos abertos, especialmente em casos de uso menos exigentes
    • Em termos de comportamento de preços, modelos de pesos abertos cumprem papel semelhante ao dos medicamentos genéricos
    • Quando existem genéricos, grandes farmacêuticas reduzem seus preços para bem perto dos preços dos genéricos e passam a focar em novos tratamentos que estejam um passo à frente deles
  • Sem modelos de pesos abertos, o poder de precificação dos laboratórios de fronteira pode se tornar muito maior do que é hoje

Mudanças no licenciamento e na forma de divulgação

  • A disponibilidade de modelos de pesos abertos não é algo garantido
    • Treinar modelos custa caro, e as empresas que os criam são empresas comerciais
    • Mesmo que provavelmente recebam muitos subsídios do Estado chinês, não são instituições de caridade
  • Recentemente, as condições de licença dos modelos de pesos abertos mostram uma tendência clara de endurecimento
    • A Meta interrompeu completamente os pesos abertos em seu mais novo modelo “Muse Spark” e simplesmente não divulgou o modelo
    • A Alibaba está cada vez mais lançando modelos primeiro via API ou, em algumas variantes, apenas via API
    • A licença do K2.6 da Kimi adiciona uma cláusula de atribuição exigindo que produtos com mais de 100 milhões de usuários ativos mensais ou mais de US$ 20 milhões de receita mensal exibam “Kimi K2.6” de forma visível na interface
    • A francesa Mistral também impõe várias condições de licença ao uso comercial
  • Há exceções
    • A DeepSeek, ao contrário, vem se tornando mais permissiva
    • Mas a tendência geral é de licenças menos permissivas, e Meta e Alibaba caminham para interromper a divulgação de parte ou da totalidade de seus modelos

A estrutura de mercado que a retração dos pesos abertos pode criar

  • Daqui a um ano, pode ser que a maioria ou até todos os modelos de ponta que antes teriam sido divulgados como pesos abertos deixem de ser divulgados
    • Por enquanto, isso é um cenário hipotético
    • Comparações de preços entre modelos ainda podem continuar existindo
    • Mas, se os custos e a complexidade do treinamento continuarem aumentando, pode ser que só restem poucos players
  • Uma possível configuração de mercado é a concentração em três grandes laboratórios de fronteira do Ocidente e alguns institutos chineses
    • Também é possível que institutos chineses sejam consolidados em um ou dois “superlabs” chineses por meio de “fusões” conduzidas pelo Estado
    • Há muitos precedentes desse tipo de consolidação em setores estratégicos
    • A China já usou essa abordagem em ferrovias (CRRC), energia nuclear, companhias aéreas e telecomunicações
    • O Ocidente também não é exceção, com casos de consolidação de grandes contratantes de defesa após a Guerra Fria
  • Essa mudança permitiria que poucas empresas capturassem uma parcela maior do excedente do consumidor gerado pela IA
    • Usuários de IA estão obtendo valor muito maior do que o custo pago por token
    • É plausível pensar que muitos pagariam 10 vezes o preço atual sem hesitar, dado o valor envolvido
    • Em trabalhos especializados de alto valor agregado ou tarefas agentic, a diferença entre o que se paga e o que se estaria disposto a pagar é ainda maior
    • Um oligopólio sem o piso de preços representado pelos pesos abertos estaria em posição de converter essa diferença em lucro
  • Em termos de teoria econômica, em um mundo assim poder e riqueza econômica poderiam se concentrar historicamente em poucas empresas
    • Os laboratórios poderiam começar a extrair diretamente o excedente do consumidor na forma de margens
    • Com a barreira de entrada de um oligopólio de poucas empresas e o enorme gasto de capital exigido para novos modelos, a concorrência por preços tende a ser limitada

Possíveis contrapontos e riscos remanescentes

  • É possível que a visão pessimista seja exagerada
    • Se o hardware evoluir mais rapidamente, treinar modelos “bons o suficiente” pode ficar mais fácil com o tempo, e não mais difícil
    • Fabricantes de hardware de IA são poucos, mas o mercado de hardware de IA mostra competição intensa
  • Destilação (distillation) é citada como uma rota de escape, mas não é uma solução fundamental
    • Destilação é a técnica de treinar modelos menores com saídas de modelos de fronteira
    • Mas, para isso, é preciso ter acesso a um modelo-base poderoso em primeiro lugar
    • E justamente o elemento em risco é esse acesso a modelos-base poderosos
  • Um ecossistema competitivo de pesos abertos era uma premissa silenciosa de sustentação sob toda a economia de IA
    • Vale prestar atenção ao fato de que essa premissa está enfraquecendo
    • As implicações para a economia mais ampla são muito grandes

Termos e explicações complementares

  • Modelos de pesos abertos são a categoria em que apenas o modelo final é divulgado
    • Tecnicamente, é possível dividir em três categorias: fechado, pesos abertos e modelo totalmente aberto ou reproduzível
    • Um modelo totalmente aberto ou reproduzível inclui até os dados de treinamento e a documentação dos processos relacionados
    • Essa categoria é a mais próxima do que se chama de open source em software
  • OpenRouter funciona como uma “API de APIs”
    • Ele roteia requisições de um determinado modelo para o provedor de inferência mais barato ou com maior disponibilidade
    • Se um provedor tiver problema, ele pode trocar imediatamente para outro, aumentando bastante a confiabilidade
    • Se houver um provedor mais barato, ele muda para ele

1 comentários

 
GN⁺ 1 시간 전
Opiniões no Lobste.rs
  • Este texto está incorreto sobre o Kimi. Algumas empresas colocam grandes restrições e chamam isso de “modified MIT”, mas o Kimi K2.6 just has an advertising clause. Seria melhor sem isso, mas não parece algo grave a ponto de ser tratado como um grande problema
    O texto afirma que o Kimi proibiu o uso do modelo de pesos abertos em produtos com mais de 100 milhões de usuários ativos mensais ou mais de 20 milhões de dólares de receita mensal, mas na prática a licença do K2.6 exige apenas que “Kimi K2.6” seja exibido de forma visível na UI desses produtos e serviços
    É verdade que algumas empresas estão reduzindo a divulgação de pesos abertos, mas também há empresas como Xiaomi, DeepSeek, Moonshot e Zai lançando grandes modelos competitivos de pesos abertos. No lado dos modelos menores, também é positivo que o Gemma 4 tenha migrado para a licença aberta padrão Apache
    Faz sentido levantar essa preocupação, mas por enquanto isso ainda parece mais uma troca em que as empresas que recuam em pesos abertos estão sendo substituídas por novas entrantes ou por empresas migrando para licenças mais tradicionais

    • Como autor do texto, achei a observação válida e atualizei o post. Acho que confundi com o caso do Cursor Kimi, então a correção está certa
      Vai ser interessante ver como isso evolui. Não incluí isso porque o texto já estava longo, mas acho que essas empresas precisaram de modelos de pesos abertos para conseguir atenção de verdade. Vendo casos como o Grok, que mesmo com muito poder computacional e preços agressivos teve baixa adoção, elas provavelmente teriam tido muita dificuldade até para obter reconhecimento global
      Dito isso, os modelos chineses também não têm tanto poder computacional para inferência quanto a xAI. Agora que a qualidade dos modelos melhorou, o incentivo para fechá-los aumentou, mas talvez esse continue sendo um mundo em que sempre surgem novos entrantes
  • Acabo me perguntando qual é o incentivo de mercado para publicar modelos de linguagem de grande porte com pesos abertos
    A Nvidia on Hugging Face está publicando alguns modelos, e parece estar apostando que venderá mais GPUs se as pessoas rodarem modelos de linguagem grandes localmente em vez de usar serviços por assinatura
    Se a publicação de modelos com pesos abertos diminuir, os grandes provedores de inferência podem acabar criando uma fundação de pesos abertos, parecida com a Linux Foundation, para coordenar obtenção de dados de treinamento, treinamento e ajuste fino. Sem modelos competitivos para oferecer, o negócio dessas empresas também fica difícil de sustentar

    • Li em algum lugar uma teoria de que, quando a Lei de Moore acabar, veremos mais eletrônicos abertos e reparáveis. A lógica é que, enquanto as empresas precisam se manter na fronteira, elas têm incentivo para esconder fontes secretas, mas quando essa fronteira para de avançar, elas deixam de competir por funcionalidade e todos os produtos do mercado ficam parecidamente bons, fazendo esse incentivo desaparecer
      Não sei se os provedores de inferência de hoje fariam esse movimento rumo a uma fundação de pesos abertos. Mas se os modelos de linguagem baterem no teto em alguns anos, certamente pode surgir um forte incentivo do lado dos clientes. Algo como: “Por que estamos pagando 5 bilhões de dólares por mês para a OpenAnthropic por algo que nós mesmos poderíamos fazer?”
  • Há comentários aqui refutando partes disso, mas quero acrescentar mais algumas coisas
    É verdade, e é uma pena, que a Alibaba tenha adotado uma abordagem um pouco menos open-first com o Qwen, mas a diferença real não é tão grande assim. Os modelos da linha Max e muitos modelos especializados sempre foram só API, e hoje o principal modelo importante exclusivamente via API parece ser o “Plus”, com cerca de 400B parâmetros. Historicamente, ele também não foi um modelo excepcional para o tamanho que tem
    Os modelos menores que as pessoas normalmente associam ao Qwen continuam sendo publicados. O cronograma de divulgação parece um pouco mais disperso, mas os lançamentos do Qwen sempre foram meio bagunçados mesmo
    O Qwen 3.6 Plus citado como modelo fechado está disponível por meio de uma parceria exclusiva e pode ser available on Fireworks. Não sei se isso é uma tentativa de também atender organizações que querem servidores próprios, mas será interessante ver se esse formato se torna mais comum
    O “Muse Spark” da Meta é, na prática, uma família de modelos quase totalmente diferente do time do LLaMa, então parece mais correto tratá-lo como um produto separado do que dizer que a Meta “interrompeu” os pesos abertos
    A cláusula de exibição do Kimi K2.6 não foi algo “adicionado” agora; the clause has been there since the original K2. A DeepSeek também usa uma licença MIT comum desde o R1 e o V3 0324
    Mesmo recentemente, houve vários lançamentos reais e relevantes de pesos abertos, como a linha MiMo v2.5, o GLM 5.1 e o Gemma 4. Dito isso, a linha principal do GLM é de pesos abertos, mas várias versões ajustadas, como a linha “Code”, são proprietárias, e a atualização 2603 do Step 3.5 Flash também parece ser proprietária. Ainda assim, eles release their SFT training data, então também não dá para criticá-los demais
    Às vezes há atraso na publicação, e isso aconteceu com o MiMo v2.5/Pro e com o GLM 5.1. Por outro lado, isso às vezes traz a vantagem de já haver suporte em SGLang/vLLM logo após o lançamento. O MiniMax M2.7 de fato mudou para uma much more restrictive license, e acho que foi isso que acabou sendo confundido com o Kimi
    A estratégia de “ganhar algum dinheiro primeiro via API e publicar depois” ainda parece bem generosa, considerando o alto custo do desenvolvimento de modelos, e ao menos por enquanto o setor parece satisfeito com esse equilíbrio

  • O GLM 5.1 é um modelo de pesos abertos muito competitivo, lançado no mês passado sob licença MIT. Várias empresas já o oferecem como serviço. Foi feito pela Z.ai e, como outras empresas chinesas, pode até impor restrições depois, mas por enquanto não há nenhuma

    • Para quem estiver curioso: são 1.51TB: https://huggingface.co/zai-org/GLM-5.1/tree/main
    • Estou usando com o OpenCode por meio de um provedor europeu, e ele realmente consegue competir com o Claude. Espero que em um futuro próximo possamos nos libertar completamente da dependência das big techs
      Alguns assumem que todos os modelos chineses foram, em algum grau, “destilados” de grandes modelos como GPT ou os da Anthropic. Não sei se isso é verdade e também não me importo muito. De qualquer forma, acho que esses modelos deveriam estar em domínio público, e fico feliz em ver que estamos indo rapidamente nessa direção
  • Tenho pensado se o negócio de licenciamento de modelos de IA não pode se tornar mais popular em breve. Você paga um valor para obter o direito de usar o modelo e depois o roda diretamente no seu próprio hardware. É um pouco parecido com a precificação do Photoshop
    Assim, evita-se o problema de vazamento de informações sensíveis, e ainda permite que o criador do modelo ganhe dinheiro. Também tem a vantagem de ser um valor fixo, em vez de uma cobrança potencialmente muito cara por token. Claro, o custo do hardware continua separado

    • No futuro, imagino que possam liberar modelos de pesos abertos, mas com uma licença que impeça gravá-los em silício. E então vender chips assim: https://taalas.com/products/
  • O Kimi K2.5 foi, de longe, o que funcionou melhor para mim até agora, e não vejo problema nenhum em não fazer upgrade