- Modelo somente de texto baseado no Gemma 4 26B IT, otimizado para MLX em Apple Silicon e quantizado em 4 bits, com cerca de 13 GB de tamanho
- Mais inteligente que o original, mais rápido na mesma máquina e um modelo sem censura estável em código, uso de ferramentas e coreano
- Um flagship somente de texto, com foco em processamento rápido de texto em vez de multimodalidade
- Melhoria no quickbench com 95,8 pontos (original 91,4) e 8,7% mais velocidade de geração (46,2 tok/s), reduzindo de forma perceptível o tempo de espera pelas respostas
- Mantém a característica central de ser sem censura (uncensored), ao mesmo tempo em que entrega saídas estáveis em código, uso de ferramentas e prompts em coreano
- Pontuação de geração de código de 98,6 (+6,3), mostrando resultados muito mais precisos que o original ao pedir localmente escrita e refatoração de funções Python
- Pontuação de prompts em coreano de 95,0 (+4,3), podendo ser usado imediatamente sem quebrar mesmo com perguntas em coreano
- Desempenho superior ao original no processamento de coreano e de prompts no estilo agent
- Por ser um modelo sem censura, há zero respostas bloqueadas por filtros de conteúdo, sem que a saída fique instável ou quebrada
- Pode ser aplicado imediatamente a workloads/pipelines de agentes locais, como automação de navegador, chamadas de ferramentas e planejamento
- Como executar:
mlx_lm.server --model Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2 --port 8080
- Suporte automático a serving compatível com OpenAI, sem necessidade de configurar templates separadamente (na verdade, informar um caminho em
--chat-template pode corromper as respostas)
- MLX 4-bit, tensores BF16·U32, formato Safetensors
8 comentários
Eu estava usando o Heretic 31b que está no Hugging Face, então acho que vou ter que testar este também.
Acho que eu também vou tentar uma vez.
Obrigado pela boa informação.
Essa licença é diferente da do gemma4 original.
Pois é, não é Apache 2.0.
Na aba de licença há um link para o Gemma 4; onde posso verificar isso?
Uau, caramba
Também está no Ollama
https://ollama.com/0xIbra/supergemma4-26b-uncensored-gguf-v2
Tem também um modelo 31b maior
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-mlx-4bit
https://huggingface.co/Jiunsong/SuperGemma4-31b-abliterated-GGUF
Hehe, é curioso ver um modelo feito por uma comunidade coreana.