- Forge é um sistema que permite que empresas construam modelos de IA baseados em conhecimento interno, superando as limitações dos modelos existentes centrados em dados públicos
- Ele treina modelos especializados por domínio usando documentos internos, bases de código e dados operacionais, com suporte a todas as etapas de pré-treinamento, pós-treinamento e aprendizado por reforço
- Como mantém o controle sobre modelos, dados e conhecimento, além da proteção da propriedade intelectual, também pode ser usado em setores regulados
- Com modelos personalizados, agentes corporativos podem entender sistemas e políticas internas, usando ferramentas e tomando decisões com precisão
- Suporta várias arquiteturas e aprendizado por reforço contínuo, aumentando a autonomia estratégica da IA corporativa e seu potencial de melhoria no longo prazo
Visão geral do Forge
- Forge é um sistema que permite que empresas construam modelos de IA de nível frontier com base em conhecimento e dados próprios
- Enquanto os modelos tradicionais baseados em dados públicos são otimizados para tarefas gerais, o Forge incorpora o contexto exclusivo da organização, como padrões internos, políticas, código e histórico de decisões
- Com isso, ajuda a IA a operar de acordo com o ambiente operacional e os fluxos de trabalho da empresa
- A Mistral AI já está aplicando essa tecnologia em parceria com ASML, Ericsson, European Space Agency e HTX Singapore
Treinamento de modelos baseados em conhecimento institucional
- O Forge treina modelos com grandes volumes de dados internos, como documentos, bases de código, dados estruturados e registros operacionais
- Os modelos aprendem a terminologia, os padrões de raciocínio e as restrições desse ambiente
- O processo de treinamento é composto por três etapas
- Pré-treinamento (pre-training): construção de um modelo com entendimento do domínio a partir de dados internos
- Pós-treinamento (post-training): ajuste fino do modelo para tarefas e ambientes específicos
- Aprendizado por reforço (reinforcement learning): alinhamento do comportamento do modelo com políticas internas e critérios de avaliação, além de melhoria do desempenho em ambientes reais
- Isso permite desenvolver modelos que refletem a inteligência organizacional
Controle e autonomia estratégica
- O Forge foi projetado para que as empresas mantenham controle sobre os modelos e os dados
- Os modelos são treinados com dados internos e podem ser gerenciados de acordo com políticas internas, critérios de avaliação e requisitos operacionais
- Ele permite atender a exigências de compliance e governança em ambientes regulados
- Ao operar os modelos em infraestrutura própria, a empresa garante autonomia estratégica
Modelos personalizados e agentes confiáveis
- Agentes corporativos não precisam apenas gerar respostas, mas também navegar por sistemas internos, usar ferramentas e tomar decisões com base em políticas
- Agentes baseados em modelos treinados no domínio entendem a terminologia e os procedimentos internos, além de compreender as relações entre sistemas
- Isso melhora a precisão na escolha de ferramentas, aumenta a estabilidade de fluxos de trabalho em múltiplas etapas e permite decisões alinhadas a políticas internas
- Como resultado, torna-se possível implementar agentes de IA como componentes operacionais
Suporte a diferentes arquiteturas de modelo
- O Forge oferece suporte tanto a arquiteturas Dense quanto Mixture-of-Experts (MoE)
- Modelos Dense têm vantagem em tarefas gerais, enquanto MoE permite operar modelos de grande escala com baixa latência e eficiência de custo
- O suporte a entradas multimodais permite treinar com diferentes formatos de dados, como texto e imagem
Design centrado em agentes
- O Forge foi projetado tendo agentes de código como principais usuários
- Exemplo: agentes autônomos como o Mistral Vibe podem realizar ajuste fino de modelos, busca de hiperparâmetros, agendamento de tarefas e geração de dados sintéticos
- O Forge evita degradação de desempenho por meio do monitoramento de métricas de avaliação durante o treinamento
- Inclui gerenciamento de infraestrutura e receitas de pipeline de dados, permitindo personalização de modelos apenas com comandos em linguagem natural
Melhoria contínua e avaliação
- O Forge oferece suporte a aprendizado adaptativo contínuo
- Por meio de pipelines de aprendizado por reforço, melhora o comportamento do modelo com feedback interno
- Seu framework de avaliação permite testar benchmarks internos, regras regulatórias e tarefas específicas de domínio
- Como resultado, viabiliza um ciclo de vida de modelos com melhoria contínua, e não apenas implantação estática
Casos de uso corporativos
- Órgãos governamentais: suporte à análise de políticas e serviços públicos por meio do aprendizado de documentos multilíngues e procedimentos administrativos
- Instituições financeiras: consistência de governança interna com aprendizado de documentos regulatórios e procedimentos de risco
- Equipes de software: aumento da produtividade em implementação, depuração e revisão com aprendizado da base de código interna
- Fabricantes: suporte a diagnóstico e tomada de decisão com aprendizado de especificações de projeto e dados de manutenção
- Grandes empresas: suporte a fluxos de trabalho complexos e melhoria da precisão na busca de informações com agentes baseados em sistemas internos de conhecimento
Conclusão: a transição para uma infraestrutura de IA centrada na empresa
- À medida que os modelos de IA se tornam uma camada central da infraestrutura corporativa, cresce a importância de modelar o conhecimento organizacional
- O Forge fornece a base para que empresas construam modelos que possam ser treinados, alinhados e avaliados com seus próprios dados, evoluindo para ativos estratégicos
- Com isso, a IA pode deixar de ser uma ferramenta externa e se tornar uma competência central que evolui junto com o conhecimento da organização
1 comentários
Comentários no Hacker News
Eu gosto da Mistral. O equilíbrio entre custo e retenção de dados dentro da UE é perfeito. Quase não há perda de qualidade.
Mas o esquema de nomes dos modelos é confuso demais. Por exemplo, existe um modelo chamado Devstral 2, mas ele não é nem Codestral nem Devestral.
Na API há vários nomes, como devstral-2512, devstral-latest e devstral-medium-latest.
Achei que devstral-latest fosse o certo, então perguntei ao suporte, e 12 horas depois eles me enviaram um guia de configuração do IntelliJ gerado por IA dizendo que “devstral 2 é devstral 2”.
O problema é que a tela mostrada nesse guia nem existe de verdade
devstral-2512, devstral-latest e devstral-medium-latest são todos o devstral 2.
labs-devstral-small-2512 e devstral-small-latest são o devstral small 2,
devstral-medium-2507 é o devstral 1.0, e devstral-small-2507 é o devstral small 1.1
Parece que querem oferecer workflows sob medida para cada empresa.
Ou então pode ser um problema de falta de comunicação entre departamentos, como no Google
A qualidade dos modelos é mais baixa, mas dentro da Europa isso é o melhor disponível.
Claro, também dá para rodar modelos chineses em servidores europeus
A Mistral não deve ser subestimada. Como LLM como serviço genérico, ela é bem barata,
e a estratégia de focar em modelagem personalizada em vez de modelos gigantes pode acabar dando resultado.
Especialmente no ambiente da UE, que é cheio de regulação, isso pode ser uma vantagem.
O mundo não é feito só de geração de código
Só que é uma estratégia com baixa barreira de entrada, então pode ser copiada com facilidade.
Se conseguirem garantir muitos modelos pré-treinados para cada produto, como ERP e CRM,
e depois vender modelos derivados que incorporem os dados de customização dos clientes, isso sim vira um verdadeiro moat.
O segredo é fechar contratos em silêncio
fico em dúvida sobre como a modelagem personalizada conseguiria substituir esse volume imenso de conhecimento
Basta subir o dataset e o modelo já fica disponível em um endpoint.
Há limitações, mas isso aumenta muito a acessibilidade
Também funciona localmente, então o desenvolvedor mantém o controle
A qualidade dos modelos está entre as mais baixas dos LLMs
Fiquei curioso sobre o significado de “pre-training” e “post-training”.
Na prática, provavelmente não há datasets limpos suficientes,
então fico na dúvida se o que eles chamam de pre-training é realmente treinamento de modelo-base ou se é SFT (ajuste fino supervisionado).
Talvez estejam gerando dados sintéticos com base em dados internos para fazer destilação de conhecimento em baixa resolução
Como o objetivo continua sendo prever o próximo token, isso é chamado de “continued pre-training”.
Post-training abrange todos os processos baseados em feedback humano, como SFT, DPO e RL
enquanto post-training seria algo como RAG, adicionando dados ao prompt
Pela descrição do Forge, eles dizem que treinam o modelo com documentos internos ou a base de código da empresa
para internalizar conhecimento de domínio.
Mas, na minha opinião, para aquisição de conhecimento, RAG é mais eficaz do que fine-tuning.
Fine-tuning é bom para mudar o “tom” do modelo, mas é difícil injetar conhecimento novo
Eu torço pela abordagem da Mistral.
Em vez de competir na corrida dos modelos gigantes, é inteligente focar em engenharia sob medida para o cliente e no mercado da UE
Outros modelos se preocupam demais com o nível de compreensão do leitor,
mas a Mistral acompanha bem discussões profundas e técnicas
Recentemente a Mistral tem feito muitas tentativas realmente interessantes.
É difícil competir com OpenAI ou Anthropic,
mas a originalidade no design de produto se destaca.
Pessoalmente, a ponto de eu querer trabalhar lá
A Mistral vem lançando muitos recursos legais ultimamente.
Não é um modelo de ponta, mas, considerando que pequenas empresas dificilmente conseguem treinar modelos por conta própria,
esse tipo de ferramenta é uma grande oportunidade.
Especialmente junto com ferramentas como unsloth, o treinamento parece muito mais viável
Fico curioso para saber quantos casos de uso empresariais realmente precisam de fine-tuning.
Será que só RAG não basta?
dá para reduzir chamadas a LLMs em rede em tarefas como análise de logs, uso de ferramentas e incorporação de conhecimento de domínio
Já o fine-tuning melhora a própria capacidade de raciocínio do modelo
É interessante o que essa abordagem sugere sobre a estrutura de receita da IA.
A quantidade de GPUs não parece que vai ser a barreira de entrada.
Pelo contrário, dados especializados e proprietários devem ser o verdadeiro moat.
Os dados internos das empresas contêm conhecimento insubstituível.
A Mistral está apostando exatamente nisso
mas, de certa forma, também podem ser vistos como treinados com 3,5 bilhões de anos de dados evolutivos
É o caminho mais inteligente para ganhar dinheiro com IA.
A MongoDB também está entrando no mercado de consultoria para RAG empresarial e modelos personalizados por meio da VoyageAI