5 pontos por GN⁺ 2026-03-18 | 1 comentários | Compartilhar no WhatsApp
  • Forge é um sistema que permite que empresas construam modelos de IA baseados em conhecimento interno, superando as limitações dos modelos existentes centrados em dados públicos
  • Ele treina modelos especializados por domínio usando documentos internos, bases de código e dados operacionais, com suporte a todas as etapas de pré-treinamento, pós-treinamento e aprendizado por reforço
  • Como mantém o controle sobre modelos, dados e conhecimento, além da proteção da propriedade intelectual, também pode ser usado em setores regulados
  • Com modelos personalizados, agentes corporativos podem entender sistemas e políticas internas, usando ferramentas e tomando decisões com precisão
  • Suporta várias arquiteturas e aprendizado por reforço contínuo, aumentando a autonomia estratégica da IA corporativa e seu potencial de melhoria no longo prazo

Visão geral do Forge

  • Forge é um sistema que permite que empresas construam modelos de IA de nível frontier com base em conhecimento e dados próprios
    • Enquanto os modelos tradicionais baseados em dados públicos são otimizados para tarefas gerais, o Forge incorpora o contexto exclusivo da organização, como padrões internos, políticas, código e histórico de decisões
    • Com isso, ajuda a IA a operar de acordo com o ambiente operacional e os fluxos de trabalho da empresa
  • A Mistral AI já está aplicando essa tecnologia em parceria com ASML, Ericsson, European Space Agency e HTX Singapore

Treinamento de modelos baseados em conhecimento institucional

  • O Forge treina modelos com grandes volumes de dados internos, como documentos, bases de código, dados estruturados e registros operacionais
    • Os modelos aprendem a terminologia, os padrões de raciocínio e as restrições desse ambiente
  • O processo de treinamento é composto por três etapas
    • Pré-treinamento (pre-training): construção de um modelo com entendimento do domínio a partir de dados internos
    • Pós-treinamento (post-training): ajuste fino do modelo para tarefas e ambientes específicos
    • Aprendizado por reforço (reinforcement learning): alinhamento do comportamento do modelo com políticas internas e critérios de avaliação, além de melhoria do desempenho em ambientes reais
  • Isso permite desenvolver modelos que refletem a inteligência organizacional

Controle e autonomia estratégica

  • O Forge foi projetado para que as empresas mantenham controle sobre os modelos e os dados
    • Os modelos são treinados com dados internos e podem ser gerenciados de acordo com políticas internas, critérios de avaliação e requisitos operacionais
  • Ele permite atender a exigências de compliance e governança em ambientes regulados
  • Ao operar os modelos em infraestrutura própria, a empresa garante autonomia estratégica

Modelos personalizados e agentes confiáveis

  • Agentes corporativos não precisam apenas gerar respostas, mas também navegar por sistemas internos, usar ferramentas e tomar decisões com base em políticas
  • Agentes baseados em modelos treinados no domínio entendem a terminologia e os procedimentos internos, além de compreender as relações entre sistemas
    • Isso melhora a precisão na escolha de ferramentas, aumenta a estabilidade de fluxos de trabalho em múltiplas etapas e permite decisões alinhadas a políticas internas
  • Como resultado, torna-se possível implementar agentes de IA como componentes operacionais

Suporte a diferentes arquiteturas de modelo

  • O Forge oferece suporte tanto a arquiteturas Dense quanto Mixture-of-Experts (MoE)
    • Modelos Dense têm vantagem em tarefas gerais, enquanto MoE permite operar modelos de grande escala com baixa latência e eficiência de custo
  • O suporte a entradas multimodais permite treinar com diferentes formatos de dados, como texto e imagem

Design centrado em agentes

  • O Forge foi projetado tendo agentes de código como principais usuários
    • Exemplo: agentes autônomos como o Mistral Vibe podem realizar ajuste fino de modelos, busca de hiperparâmetros, agendamento de tarefas e geração de dados sintéticos
    • O Forge evita degradação de desempenho por meio do monitoramento de métricas de avaliação durante o treinamento
    • Inclui gerenciamento de infraestrutura e receitas de pipeline de dados, permitindo personalização de modelos apenas com comandos em linguagem natural

Melhoria contínua e avaliação

  • O Forge oferece suporte a aprendizado adaptativo contínuo
    • Por meio de pipelines de aprendizado por reforço, melhora o comportamento do modelo com feedback interno
    • Seu framework de avaliação permite testar benchmarks internos, regras regulatórias e tarefas específicas de domínio
  • Como resultado, viabiliza um ciclo de vida de modelos com melhoria contínua, e não apenas implantação estática

Casos de uso corporativos

  • Órgãos governamentais: suporte à análise de políticas e serviços públicos por meio do aprendizado de documentos multilíngues e procedimentos administrativos
  • Instituições financeiras: consistência de governança interna com aprendizado de documentos regulatórios e procedimentos de risco
  • Equipes de software: aumento da produtividade em implementação, depuração e revisão com aprendizado da base de código interna
  • Fabricantes: suporte a diagnóstico e tomada de decisão com aprendizado de especificações de projeto e dados de manutenção
  • Grandes empresas: suporte a fluxos de trabalho complexos e melhoria da precisão na busca de informações com agentes baseados em sistemas internos de conhecimento

Conclusão: a transição para uma infraestrutura de IA centrada na empresa

  • À medida que os modelos de IA se tornam uma camada central da infraestrutura corporativa, cresce a importância de modelar o conhecimento organizacional
  • O Forge fornece a base para que empresas construam modelos que possam ser treinados, alinhados e avaliados com seus próprios dados, evoluindo para ativos estratégicos
  • Com isso, a IA pode deixar de ser uma ferramenta externa e se tornar uma competência central que evolui junto com o conhecimento da organização

1 comentários

 
GN⁺ 2026-03-18
Comentários no Hacker News
  • Eu gosto da Mistral. O equilíbrio entre custo e retenção de dados dentro da UE é perfeito. Quase não há perda de qualidade.
    Mas o esquema de nomes dos modelos é confuso demais. Por exemplo, existe um modelo chamado Devstral 2, mas ele não é nem Codestral nem Devestral.
    Na API há vários nomes, como devstral-2512, devstral-latest e devstral-medium-latest.
    Achei que devstral-latest fosse o certo, então perguntei ao suporte, e 12 horas depois eles me enviaram um guia de configuração do IntelliJ gerado por IA dizendo que “devstral 2 é devstral 2”.
    O problema é que a tela mostrada nesse guia nem existe de verdade

    • Eu também fiquei completamente perdido no site deles. Em vez disso, olhando a documentação oficial,
      devstral-2512, devstral-latest e devstral-medium-latest são todos o devstral 2.
      labs-devstral-small-2512 e devstral-small-latest são o devstral small 2,
      devstral-medium-2507 é o devstral 1.0, e devstral-small-2507 é o devstral small 1.1
    • Tive a mesma experiência. Em especial, o processo de geração de chave de API ser separado por produto deixou tudo ainda mais confuso
    • Minha impressão é que essa empresa parece operar mais com foco em B2B do que em desenvolvedores individuais.
      Parece que querem oferecer workflows sob medida para cada empresa.
      Ou então pode ser um problema de falta de comunicação entre departamentos, como no Google
    • Acho que “retenção de dados dentro da UE” é o motivo de a Mistral receber apoio.
      A qualidade dos modelos é mais baixa, mas dentro da Europa isso é o melhor disponível.
      Claro, também dá para rodar modelos chineses em servidores europeus
  • A Mistral não deve ser subestimada. Como LLM como serviço genérico, ela é bem barata,
    e a estratégia de focar em modelagem personalizada em vez de modelos gigantes pode acabar dando resultado.
    Especialmente no ambiente da UE, que é cheio de regulação, isso pode ser uma vantagem.
    O mundo não é feito só de geração de código

    • Concordo. Se uma empresa quiser adotar IA para automação, essa abordagem é ideal.
      Só que é uma estratégia com baixa barreira de entrada, então pode ser copiada com facilidade.
      Se conseguirem garantir muitos modelos pré-treinados para cada produto, como ERP e CRM,
      e depois vender modelos derivados que incorporem os dados de customização dos clientes, isso sim vira um verdadeiro moat.
      O segredo é fechar contratos em silêncio
    • Mas se a essência dos LLMs são modelos gigantescos,
      fico em dúvida sobre como a modelagem personalizada conseguiria substituir esse volume imenso de conhecimento
    • Eu mesmo já treinei pequenos modelos especializados na plataforma deles.
      Basta subir o dataset e o modelo já fica disponível em um endpoint.
      Há limitações, mas isso aumenta muito a acessibilidade
    • Até para programação, o Vibe é mais voltado para “refatorar funções” do que para “escrever o app inteiro”.
      Também funciona localmente, então o desenvolvedor mantém o controle
    • Sinceramente, tirando o fato de ser “europeia”, quase não vejo motivo para escolher a Mistral.
      A qualidade dos modelos está entre as mais baixas dos LLMs
  • Fiquei curioso sobre o significado de “pre-training” e “post-training”.
    Na prática, provavelmente não há datasets limpos suficientes,
    então fico na dúvida se o que eles chamam de pre-training é realmente treinamento de modelo-base ou se é SFT (ajuste fino supervisionado).
    Talvez estejam gerando dados sintéticos com base em dados internos para fazer destilação de conhecimento em baixa resolução

    • Pre-training é expor um modelo existente a mais texto bruto (PDFs etc.).
      Como o objetivo continua sendo prever o próximo token, isso é chamado de “continued pre-training”.
      Post-training abrange todos os processos baseados em feedback humano, como SFT, DPO e RL
    • Talvez estejam usando termos de marketing para diferenciar full fine-tuning de PEFT/LoRA
    • Meu palpite é que pre-training seja refinar os pesos de um modelo existente com mais dados,
      enquanto post-training seria algo como RAG, adicionando dados ao prompt
    • No fim das contas, parece que querem dizer “continued pretraining”
    • Parece uma forma de distinguir entre fazer fine-tuning de um modelo-base com SFT e ajustá-lo com DPO ou SFT baseado em comportamento
  • Pela descrição do Forge, eles dizem que treinam o modelo com documentos internos ou a base de código da empresa
    para internalizar conhecimento de domínio.
    Mas, na minha opinião, para aquisição de conhecimento, RAG é mais eficaz do que fine-tuning.
    Fine-tuning é bom para mudar o “tom” do modelo, mas é difícil injetar conhecimento novo

  • Eu torço pela abordagem da Mistral.
    Em vez de competir na corrida dos modelos gigantes, é inteligente focar em engenharia sob medida para o cliente e no mercado da UE

    • Quando se conversa sobre temas filosóficos, a Mistral é a melhor.
      Outros modelos se preocupam demais com o nível de compreensão do leitor,
      mas a Mistral acompanha bem discussões profundas e técnicas
    • O modelo de OCR deles é realmente excelente
    • Eles também oferecem suporte para implantação local
    • Vai, Mistral!
    • Acho que depois do .ai virá a era do .eu. Também estou na expectativa por um domínio ai.eu
  • Recentemente a Mistral tem feito muitas tentativas realmente interessantes.
    É difícil competir com OpenAI ou Anthropic,
    mas a originalidade no design de produto se destaca.
    Pessoalmente, a ponto de eu querer trabalhar lá

  • A Mistral vem lançando muitos recursos legais ultimamente.
    Não é um modelo de ponta, mas, considerando que pequenas empresas dificilmente conseguem treinar modelos por conta própria,
    esse tipo de ferramenta é uma grande oportunidade.
    Especialmente junto com ferramentas como unsloth, o treinamento parece muito mais viável

  • Fico curioso para saber quantos casos de uso empresariais realmente precisam de fine-tuning.
    Será que só RAG não basta?

    • Se você fizer treinamento especializado de modelos pequenos de forma rápida e barata,
      dá para reduzir chamadas a LLMs em rede em tarefas como análise de logs, uso de ferramentas e incorporação de conhecimento de domínio
    • RAG é basicamente buscar documentos para encontrar a resposta.
      Já o fine-tuning melhora a própria capacidade de raciocínio do modelo
    • RAG já era
  • É interessante o que essa abordagem sugere sobre a estrutura de receita da IA.
    A quantidade de GPUs não parece que vai ser a barreira de entrada.
    Pelo contrário, dados especializados e proprietários devem ser o verdadeiro moat.
    Os dados internos das empresas contêm conhecimento insubstituível.
    A Mistral está apostando exatamente nisso

    • Os humanos aprendem com muito menos dados do que toda a internet,
      mas, de certa forma, também podem ser vistos como treinados com 3,5 bilhões de anos de dados evolutivos
  • É o caminho mais inteligente para ganhar dinheiro com IA.
    A MongoDB também está entrando no mercado de consultoria para RAG empresarial e modelos personalizados por meio da VoyageAI