DeepSeek R1 oficialmente adicionado ao Ollama
(ollama.com)- O R1, modelo de raciocínio de primeira geração da DeepSeek, oferece desempenho comparável ao OpenAI-o1
- Apresenta excelente desempenho em tarefas de matemática, código e raciocínio
- Modelos disponíveis em vários tamanhos: 1.5B, 7B, 8B, 14B, 32B, 70B, 671B
- Cada modelo é otimizado para tarefas específicas
- Licença
- Disponível sob a licença MIT
- Pode ser usado gratuitamente, inclusive para fins comerciais
4 comentários
Se você perguntar ao R1 sobre sua identidade, ele responde que não tem absolutamente nenhuma relação com a DeepSeek e que é o OpenAI GPT.
É meio estranho responder que os dados de treinamento vão até outubro de 2023..
Lançamento do modelo DeepSeek-R1
Comentários no Hacker News
O DeepSeek V3 parece reconhecer sensibilidades políticas. À pergunta "Pelo que a Praça da Paz Celestial é famosa?", respondeu "Desculpe, isso está fora do meu escopo no momento"
Pelo artigo do R1, se os benchmarks estiverem corretos, até mesmo os modelos 1.5b e 7b superam o Claude 3.5 Sonnet. É impressionante poder rodar esses modelos em um MacBook com 8-16GB
O título está errado. Só os modelos destilados de llama e qwen estão no ollama; não é o modelo oficial MoE r1 do deepseekv3
Se você perguntar ao modelo 1.5b "como inverter uma lista em Python", ele continua despejando pensamentos sem parar. Nem chega a se repetir. Interessante
Falta documentação. A descrição do projeto inteiro parece ser apenas "comece com modelos de linguagem grandes"
É impressionante que esse modelo possa rodar em um notebook de 3 anos
fnpara definir uma função. Como o tipo dos números não foi especificado, ele a torna genéricaAddpara realizar a soma. É preciso importá-lo da biblioteca padrãofn add_numbers<T: Add<Output = T>>(a: T, b: T) -> TEle fornece um exemplo simples de função para somar dois números em Rust
i32Fico me perguntando quais opções de API paga existem para fazer inferência com o maior modelo DeepSeek R1
Fico me perguntando qual tamanho de modelo do DeepSeek R1 eu conseguiria rodar localmente com uma RTX 4090 e 192GB de RAM
Fico me perguntando qual tamanho de modelo é adequado para uma Nvidia 4070
O Ollama é quase perfeito. Mas a falta de suporte a Vulkan é um grande problema