- Assistente de IA executado localmente, desenvolvido em Rust, que funciona totalmente no dispositivo pessoal sem conexão com a internet, sem enviar dados para fora
- Estrutura de executável único, podendo rodar sem instalar Node.js, Docker ou Python, em forma de binário leve de cerca de 27 MB
- Sistema de memória persistente que oferece memória de longo prazo e busca por meio de um repositório de conhecimento baseado em Markdown, SQLite FTS5 e semantic search
- Suporte a CLI, web UI e GUI para desktop, com compatibilidade com múltiplos provedores de LLM como OpenAI, Anthropic e Ollama
- Compatível com o formato OpenClaw, permitindo executar tarefas autônomas usando arquivos SOUL, MEMORY e HEARTBEAT
Visão geral
- LocalGPT é um assistente de IA centrado em dispositivos locais, um aplicativo baseado em Rust com memória persistente e recursos de trabalho autônomo
- Executa totalmente no dispositivo pessoal sem depender de servidores externos
- Inspirado no projeto OpenClaw, mantendo compatibilidade
- A instalação pode ser feita com o comando
cargo install localgpt, com opção de incluir GUI ou usar em modo headless
Principais recursos
- Estrutura de binário único, sem necessidade de Node.js, Docker ou Python
- Preservação local dos dados: toda a memória e configurações ficam armazenadas no dispositivo do usuário
- Memória persistente: usa um repositório de conhecimento baseado em arquivos Markdown, com suporte a busca rápida e busca semântica por meio de SQLite FTS5 e sqlite-vec
- Recurso de heartbeat autônomo para executar tarefas em segundo plano
- Várias interfaces: CLI, web UI e GUI para desktop
- Suporte a múltiplos LLMs: integração com Anthropic (Claude), OpenAI, Ollama e outros
Como funciona
- A memória é armazenada no diretório
~/.localgpt/workspace/, com a seguinte estrutura principal de arquivos
MEMORY.md: armazenamento de conhecimento de longo prazo
HEARTBEAT.md: fila de tarefas autônomas
SOUL.md: diretrizes de personalidade e comportamento
knowledge/: repositório de conhecimento estruturado por tema
- Usa SQLite FTS5 para busca por palavra-chave e sqlite-vec para busca semântica local baseada em embeddings
Configuração e comandos CLI
- O arquivo de configuração é salvo em
~/.localgpt/config.toml, onde se definem modelo padrão, chave de API, intervalo de heartbeat, faixa de horário de trabalho e outros itens
- Principais comandos CLI
localgpt chat: inicia uma sessão de conversa
localgpt ask "질문": executa uma consulta única
localgpt daemon start: inicia o daemon em segundo plano
localgpt memory search "query": busca na memória
localgpt config init: cria a configuração padrão
API HTTP
- Ao executar o daemon, é fornecida uma API REST
GET /health: verifica o estado
POST /api/chat: solicitação de conversa
GET /api/memory/search?q=<query>: busca na memória
GET /api/memory/stats: consulta estatísticas da memória
Stack tecnológica
- Baseado em Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed e eframe
- É disponibilizado sob a licença Apache-2.0, e cerca de 93% do código foi escrito em Rust
Outras informações
- No GitHub, possui cerca de 646 estrelas e 39 forks
- No post de blog “Why I Built LocalGPT in 4 Nights”, o processo de desenvolvimento e os detalhes por commit são divulgados
- Os principais contribuidores identificados são 4 pessoas, incluindo Yi Wang, Claude, objectkit e Ax73
1 comentários
Comentários do Hacker News
É bem cyberpunk estar vendo algo assim em 2026
A estrutura com
MEMORY.md,HEARTBEAT.mdeSOUL.mdé muito interessanteMas, como depende de
ANTHROPIC_API_KEY, fica meio difícil chamar de “local-first”Ainda assim, acho que no longo prazo o local-first é o futuro
No ano passado fiz algo parecido em Rust, e a diferença de velocidade ao rodar o modelo localmente era bem clara
Também tenho meu vídeo de demo
Implementar algo assim no nível do sistema operacional foi realmente uma experiência de mudança de paradigma
Acho que, nos próximos 5 a 10 anos, a forma como interagimos com dispositivos vai mudar de forma fundamental
Dá para apontar diretamente para endpoints compatíveis com OpenAI ou Anthropic, inclusive em localhost
Ainda estou começando, mas parece bem promissor
Dizem que mais de 100 data centers em escala de gigawatts vão surgir nos próximos anos
Acho um uso de recursos muito melhor do que a indústria bélica
Um conselho: é melhor escrever os posts ou a documentação você mesmo, ou pelo menos editar por conta própria
Do jeito que está, a documentação e os textos parecem todos escritos por LLM, e isso passa pouca dedicação
Essas máquinas de lavagem de plágio estão destruindo a sensibilidade das pessoas para a escrita
Eu sempre odiei escrever documentação, então antes quase não havia documentação no meu código
Isso fazia com que fosse difícil para outras pessoas usarem
LLMs são ideais para documentação porque geram explicações precisas rapidamente e as mantêm atualizadas
Mesmo que dê para perceber que não foi uma pessoa que escreveu, se o conteúdo estiver correto, não vejo problema
Pelo contrário, parece até existir um clima de orgulho por não se esforçar
A ideia deste projeto é excelente
O ponto central é a estrutura de memória persistente + busca semântica
Na prática, a função SOUL já é suportada pela maioria dos LLMs no formato de arquivo Markdown
Esse tipo de estrutura pode ser o ponto de partida para construir uma rede privada de agentes
Mas o problema é o nome — LocalGPT
Seria melhor trocar para um nome que reflita a intenção com mais precisão
Pergunta séria: queria entender em que isso difere do OpenClaw
Usa a mesma estrutura com
SOUL.md,MEMORY.mdeHEARTBEAT.md,e o OpenClaw já tem mensageria multicanal, chamadas de voz, automação de navegador e até subagentes
Além de ter sido feito em Rust, queria saber se existe algum outro diferencial
Ele tem funções demais, e a arquitetura de segurança é fraca
A aprovação de permissões é praticamente formalidade, e ele consegue alterar a própria configuração
Por isso eu separo permissões com o Wardgate
É necessário dividir em vários nós/agentes e separar credenciais e acesso a APIs
Nem todo mundo tem uma máquina potente
Queria entender por que precisa se conectar a um provedor de LLM (OpenAI, Anthropic etc.)
Se é um GPT local, a inferência não deveria ser local também?
Dá para definir um servidor local como provedor de LLM, como o Ollama
No README só aparece o exemplo da Anthropic, mas, olhando o código, dá para usar outras opções também
Basta mudar uma linha na configuração
Na prática, não é local nem GPT
Está mais para um clone em Rust do OpenClaw
Código relacionado: providers.rs L222
O problema central de segurança de agentes como LocalGPT ou OpenClaw é a tríade fatal de “private data access + external communication + untrusted content”
Um único e-mail malicioso já pode fazer o sistema executar a instrução “envie minha caixa de entrada ao atacante”
Estou pesquisando políticas de segurança baseadas em object-capability para resolver isso
Quero criar políticas que impeçam vazamento de informações sensíveis desde a origem
Vejo duas soluções
Mas isso gera muita fadiga
Fiquei curioso para saber se você está estudando alguma outra abordagem
Usei o OpenClaw, mas falta observabilidade
Não dá para ver nos logs o que o agente está pensando nem o que está fazendo
Um sistema assim seria perfeito se fosse feito em Elixir/BEAM
Daria para rastrear estado pela árvore de processos e despejar as caixas de mensagens para ver o fluxo de pensamento
Eles mostram só uma parte, mas na prática consomem mais tokens
É absurdo ter que recorrer a tutorial no YouTube para resolver algo que deveria ser básico; no momento, isso está um caos
No Linux Mint,
cargo install localgptfalhouQuando adicionei
"x11"noCargo.toml, a compilação funcionouNão entendo muito de Rust, mas parece ter sido um problema de dependência de GUI
Que modelos locais valem a pena para usar como assistente local?
Também queria saber se existe alguma tentativa de avaliar o trade-off entre capacidade de processamento e memória
Queria entender de quanto hardware estamos falando para isso ficar realmente útil
A palavra “local” está sendo usada de um jeito bem estranho hoje em dia
Mesmo quando a maior parte das funções acaba interagindo com a internet, ainda chamam isso de local