1 pontos por princox 2 시간 전 | Ainda não há comentários. | Compartilhar no WhatsApp
  • Elon Musk divulgou pessoalmente no X (Twitter), entre 15 e 17 de maio, o andamento do treinamento de novos modelos do Grok
  • A versão pública atual (v4.3) é baseada no modelo fundacional V8 de 0,5T parâmetros e vem sendo melhorada em intervalos de poucos dias
  • O V9, em desenvolvimento interno, tem 1,5T parâmetros e, segundo ele, “acabou de concluir o treinamento”
    • Musk chama essa etapa de “pre-training”, como é comum, mas apontou que o termo é “incorreto”
    • Em relação ao V8, houve grandes upgrades em curadoria de dados, receita de treinamento e escala do modelo
    • Diferentemente do V8, treinado em Hopper, o V9 é otimizado para a arquitetura Blackwell
  • Na etapa seguinte, de treinamento complementar (supplemental training, frequentemente chamada de “mid-training”), será adicionado o conjunto de dados da Cursor
  • Musk comentou que “o V9 já apresenta um desempenho excelente mesmo antes de receber os dados da Cursor”

▍Contexto: acordo SpaceX-Cursor

  • Em abril de 2026, a SpaceX (fundida com a xAI em fevereiro do ano passado) firmou um contrato de opção com a Cursor: direito de adquiri-la ainda neste ano por US$ 60 bilhões, ou pagar US$ 10 bilhões como contrapartida pela colaboração
  • Pouco antes desse contrato, os engenheiros sêniores da Cursor Andrew Milich e Jason Ginsberg migraram para a xAI, passando a se reportar diretamente a Musk
  • O desenho estratégico combina o supercomputador xAI Colossus (capacidade equivalente a 1 milhão de H100) com os produtos para desenvolvedores e a rede de distribuição da Cursor
  • A Cursor já vinha alugando dezenas de milhares de chips da xAI para treinar seu próprio modelo (Composer), e esse fluxo agora foi formalizado pelo contrato
  • Ou seja, a fala sobre “treinamento complementar com dados da Cursor” no Grok V9 indica que a sinergia de dados do contrato com opção de aquisição começou de fato a entrar no pipeline real de treinamento do modelo, e não se trata apenas de uma colaboração simples

▍Leituras interessantes

  • É interessante notar que Musk rejeitou publicamente o termo padrão da indústria “pre-training” e enfatizou a distinção entre as etapas “supplemental training” e “mid-training”
  • O que a Cursor possui não é apenas código, mas “dados de comportamento de programação”, como comportamento de edição em tempo real, resultados de testes, logs e capturas de tela de milhões de desenvolvedores — um dos ativos mais caros para treinar agentes de codificação
  • Em um cenário em que Anthropic Claude e OpenAI Codex dominam o mercado de programação, isso é interpretado como a carta mais direta da xAI para reduzir a distância

Fonte:

Ainda não há comentários.

Ainda não há comentários.