- Foi publicado um PR no projeto
llama.cpp que "dobra a velocidade do WASM"
- Otimiza as funções de produto escalar (dot product)
qX_K_q8_K e qX_0_q8_0 usando instruções SIMD
- A maior parte do código (99%) foi gerada automaticamente pelo "DeepSeek-R1"
- O DeepSeek-R1 leva de 3 a 5 minutos para processar o prompt
Desempenho de geração de código do DeepSeek-R1
- O autor do PR usou o DeepSeek-R1 para gerar e melhorar o código de otimização, enquanto ele próprio só fez diretamente os testes e a escrita dos prompts
- Pode ser conferido no prompt usado
- O DeepSeek-R1 mostrou uma excelente cadeia de raciocínio no processo de otimização de
llm_groq.py
Comparação de desempenho entre DeepSeek-R1 e OpenAI o1
- A mesma tarefa também foi realizada com o OpenAI o1, mas o resultado do DeepSeek-R1 foi superior
- Processo de raciocínio para otimizar
model_map no código de exemplo:
- No início, concluiu que
model_map era necessário
- Depois, considerou que ele poderia ser montado dinamicamente com base na resposta da API
- Por fim, decidiu que remover
model_map era a melhor solução
Conclusão
- O DeepSeek-R1 mostra excelente desempenho em geração e otimização automática de código
- A otimização com SIMD no WASM melhora significativamente o desempenho do llama.cpp
- Se o PR for aplicado, espera-se uma grande melhora na velocidade de execução de aplicações baseadas em WebAssembly
4 comentários
Testei o deepseek r1 14b 30b 70b com o ollama, e no geral o raciocínio é bom, mas ainda comete muitos pequenos erros. O r1 é realmente excelente.
Testei a versão destilada 8b, mas o desempenho em coreano caiu.
Parece que ele consegue produzir resultados significativos na geração de código.
Opinião do Hacker News
O DeekSeek-R1 escreveu 99% do código de um PR do llama.cpp. Isso é um exemplo de que a IA pode dar uma grande contribuição à programação
Estão executando o DeepSeek-R1-Distill-Qwen-32B em um notebook via Ollama, e ele exige cerca de 20 GB de RAM
O fato de o DeekSeek-R1 ter escrito 99% do código de um PR do llama.cpp é um marco digno de nota
Pediram ao DeepSeek para converter código ARM SIMD em código WASM, o que ajuda na otimização do código
A afirmação de que LLM não é útil para programação está errada
Usaram o o1 Pro e o Deepseek R1 para escrever testes e2e, e o Deepseek escreveu testes melhores
Xuan-Son pediu não apenas a conversão de ARM NEON para SIMD, mas também o desenvolvimento de uma nova abordagem
Reescreveram o plugin
llm_groq.pyusando o DeepSeek R1, e isso foi feito com odeepseek-r1-distill-llama-70b, ajustado sobre o modelo LlamaHá a possibilidade de a AGI chegar em alguns meses, e o treinamento acontecerá em três etapas