GGML e llama.cpp se juntam à Hugging Face
(huggingface.co)Notícia de que a Hugging Face contratou Georgi Gerganov, principal desenvolvedor do llama.cpp e do motor GGML.
Principais pontos: com o llama.cpp (o motor padrão de fato para executar LLMs localmente) e a tecnologia baseada em GGML passando para dentro da Hugging Face, dois pilares do ecossistema open source de IA local foram unificados.
llama.cpp continua 100% open source e manterá o foco em performance.
Mudanças esperadas:
- suporte e conversão automática de modelos no formato GGUF a partir da biblioteca
transformers, em nível de um clique - quando novos modelos surgirem, será possível executá-los localmente com alto desempenho de imediato, sem otimização manual
- forte melhoria na direção das ferramentas de IA local e do ambiente dos usuários
Significado: a infraestrutura que permite a pessoas e empresas executar livremente LLMs de alta qualidade localmente, sem depender de servidores centrais, fica ainda mais robusta.
Ainda não há comentários.