31 pontos por haebom 2025-08-06 | Ainda não há comentários. | Compartilhar no WhatsApp

A OpenAI lançou de forma surpreendente a série de modelos GPT-OSS (gpt-oss-120b / gpt-oss-20b) sob a licença Apache 2.0. É o primeiro modelo com pesos abertos desde o GPT-2, apresentado 6 anos depois, e tem potencial para mudar o mercado tanto em desempenho quanto em eficiência.

🧠 Principais características

  • Modelo 20B: estrutura Mixture of Experts (MoE)
     • 4 de 128 especialistas são ativados → mantém o desempenho enquanto reduz o custo de inferência
     • Suporte a FlashAttention, 128k tokens e inclui YaRN
  • Modelo 20B: pode rodar até em ambiente com GPU de 16GB (incluindo Apple Silicon)

📊 Principais resultados de benchmark (baseado no GPT-OSS-120B)

  • MMLU: 90.0% (semelhante ao o4-mini)
  • Matemática AIME: 97.9% (nível de elite em matemática + ferramentas)
  • Codeforces Elo: 2622 (também está no topo em programação)
  • HealthBench: desempenho superior ao GPT-4o
  • MMMLU (14 idiomas): 81.3% → forte também em raciocínio multilíngue

💡 Praticidade & ecossistema

  • O modelo 120B pode rodar em uma única GPU H100 80GB
  • O modelo 20B roda em tempo real mesmo em ambiente de 16GB
  • Compatível imediatamente com HuggingFace, vLLM, Ollama etc.

🔐 Segurança & responsabilidade

  • Reforço da consistência de raciocínio com base em RL
  • Introdução de Deliberative Alignment
  • Não gera saídas de alto risco nem em caso de uso malicioso intencional

Pelo menos por enquanto, parece que vai escapar das provocações de “ClosedAI”. Fiz um teste rápido e ele também se sai muito bem em coreano.

https://huggingface.co/openai/gpt-oss-120b

Ainda não há comentários.

Ainda não há comentários.