2 pontos por GN⁺ 2026-02-09 | 1 comentários | Compartilhar no WhatsApp
  • Assistente de IA executado localmente, desenvolvido em Rust, que funciona totalmente no dispositivo pessoal sem conexão com a internet, sem enviar dados para fora
  • Estrutura de executável único, podendo rodar sem instalar Node.js, Docker ou Python, em forma de binário leve de cerca de 27 MB
  • Sistema de memória persistente que oferece memória de longo prazo e busca por meio de um repositório de conhecimento baseado em Markdown, SQLite FTS5 e semantic search
  • Suporte a CLI, web UI e GUI para desktop, com compatibilidade com múltiplos provedores de LLM como OpenAI, Anthropic e Ollama
  • Compatível com o formato OpenClaw, permitindo executar tarefas autônomas usando arquivos SOUL, MEMORY e HEARTBEAT

Visão geral

  • LocalGPT é um assistente de IA centrado em dispositivos locais, um aplicativo baseado em Rust com memória persistente e recursos de trabalho autônomo
    • Executa totalmente no dispositivo pessoal sem depender de servidores externos
    • Inspirado no projeto OpenClaw, mantendo compatibilidade
  • A instalação pode ser feita com o comando cargo install localgpt, com opção de incluir GUI ou usar em modo headless

Principais recursos

  • Estrutura de binário único, sem necessidade de Node.js, Docker ou Python
  • Preservação local dos dados: toda a memória e configurações ficam armazenadas no dispositivo do usuário
  • Memória persistente: usa um repositório de conhecimento baseado em arquivos Markdown, com suporte a busca rápida e busca semântica por meio de SQLite FTS5 e sqlite-vec
  • Recurso de heartbeat autônomo para executar tarefas em segundo plano
  • Várias interfaces: CLI, web UI e GUI para desktop
  • Suporte a múltiplos LLMs: integração com Anthropic (Claude), OpenAI, Ollama e outros

Como funciona

  • A memória é armazenada no diretório ~/.localgpt/workspace/, com a seguinte estrutura principal de arquivos
    • MEMORY.md: armazenamento de conhecimento de longo prazo
    • HEARTBEAT.md: fila de tarefas autônomas
    • SOUL.md: diretrizes de personalidade e comportamento
    • knowledge/: repositório de conhecimento estruturado por tema
  • Usa SQLite FTS5 para busca por palavra-chave e sqlite-vec para busca semântica local baseada em embeddings

Configuração e comandos CLI

  • O arquivo de configuração é salvo em ~/.localgpt/config.toml, onde se definem modelo padrão, chave de API, intervalo de heartbeat, faixa de horário de trabalho e outros itens
  • Principais comandos CLI
    • localgpt chat: inicia uma sessão de conversa
    • localgpt ask "질문": executa uma consulta única
    • localgpt daemon start: inicia o daemon em segundo plano
    • localgpt memory search "query": busca na memória
    • localgpt config init: cria a configuração padrão

API HTTP

  • Ao executar o daemon, é fornecida uma API REST
    • GET /health: verifica o estado
    • POST /api/chat: solicitação de conversa
    • GET /api/memory/search?q=<query>: busca na memória
    • GET /api/memory/stats: consulta estatísticas da memória

Stack tecnológica

  • Baseado em Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed e eframe
  • É disponibilizado sob a licença Apache-2.0, e cerca de 93% do código foi escrito em Rust

Outras informações

  • No GitHub, possui cerca de 646 estrelas e 39 forks
  • No post de blog “Why I Built LocalGPT in 4 Nights”, o processo de desenvolvimento e os detalhes por commit são divulgados
  • Os principais contribuidores identificados são 4 pessoas, incluindo Yi Wang, Claude, objectkit e Ax73

1 comentários

 
GN⁺ 2026-02-09
Comentários do Hacker News
  • É bem cyberpunk estar vendo algo assim em 2026
    A estrutura com MEMORY.md, HEARTBEAT.md e SOUL.md é muito interessante
    Mas, como depende de ANTHROPIC_API_KEY, fica meio difícil chamar de “local-first”
    Ainda assim, acho que no longo prazo o local-first é o futuro
    No ano passado fiz algo parecido em Rust, e a diferença de velocidade ao rodar o modelo localmente era bem clara
    Também tenho meu vídeo de demo
    Implementar algo assim no nível do sistema operacional foi realmente uma experiência de mudança de paradigma
    Acho que, nos próximos 5 a 10 anos, a forma como interagimos com dispositivos vai mudar de forma fundamental

    • Isso não é local-first, acho que o nome está errado
    • Não há necessidade de usar um LLM de terceiros
      Dá para apontar diretamente para endpoints compatíveis com OpenAI ou Anthropic, inclusive em localhost
    • Código relacionado: providers.rs L222
    • Eu também estou testando OpenClaw e Qwen3 Coder Next em uma LAN, de forma local-first
      Ainda estou começando, mas parece bem promissor
    • Independentemente de gostar ou não de IA, o volume atual de investimento parece o programa Apollo da nossa geração
      Dizem que mais de 100 data centers em escala de gigawatts vão surgir nos próximos anos
      Acho um uso de recursos muito melhor do que a indústria bélica
  • Um conselho: é melhor escrever os posts ou a documentação você mesmo, ou pelo menos editar por conta própria
    Do jeito que está, a documentação e os textos parecem todos escritos por LLM, e isso passa pouca dedicação

    • Hoje em dia muita gente já desistiu de escrever mais do que algumas frases
      Essas máquinas de lavagem de plágio estão destruindo a sensibilidade das pessoas para a escrita
    • Também concordo, escrever a documentação você mesmo acaba sendo até mais divertido
    • Há também um contraponto
      Eu sempre odiei escrever documentação, então antes quase não havia documentação no meu código
      Isso fazia com que fosse difícil para outras pessoas usarem
      LLMs são ideais para documentação porque geram explicações precisas rapidamente e as mantêm atualizadas
      Mesmo que dê para perceber que não foi uma pessoa que escreveu, se o conteúdo estiver correto, não vejo problema
    • Seria bom se isso servisse como freio para esses posts de baixa qualidade, mas na prática não é assim
      Pelo contrário, parece até existir um clima de orgulho por não se esforçar
  • A ideia deste projeto é excelente
    O ponto central é a estrutura de memória persistente + busca semântica
    Na prática, a função SOUL já é suportada pela maioria dos LLMs no formato de arquivo Markdown
    Esse tipo de estrutura pode ser o ponto de partida para construir uma rede privada de agentes
    Mas o problema é o nome — LocalGPT

    1. não é local,
    2. e também não é um modelo GPT
      Seria melhor trocar para um nome que reflita a intenção com mais precisão
  • Pergunta séria: queria entender em que isso difere do OpenClaw
    Usa a mesma estrutura com SOUL.md, MEMORY.md e HEARTBEAT.md,
    e o OpenClaw já tem mensageria multicanal, chamadas de voz, automação de navegador e até subagentes
    Além de ter sido feito em Rust, queria saber se existe algum outro diferencial

    • Muita gente, inclusive eu, tem medo do OpenClaw
      Ele tem funções demais, e a arquitetura de segurança é fraca
      A aprovação de permissões é praticamente formalidade, e ele consegue alterar a própria configuração
      Por isso eu separo permissões com o Wardgate
      É necessário dividir em vários nós/agentes e separar credenciais e acesso a APIs
    • Isso parece só um gerador de site estático para vibe coding
    • O ponto forte é ser pequeno e não ser baseado em Node
      Nem todo mundo tem uma máquina potente
  • Queria entender por que precisa se conectar a um provedor de LLM (OpenAI, Anthropic etc.)
    Se é um GPT local, a inferência não deveria ser local também?

    • Não é obrigatório se conectar a algo externo
      Dá para definir um servidor local como provedor de LLM, como o Ollama
      No README só aparece o exemplo da Anthropic, mas, olhando o código, dá para usar outras opções também
      Basta mudar uma linha na configuração
    • O esforço é legal, mas o nome induz ao erro
      Na prática, não é local nem GPT
      Está mais para um clone em Rust do OpenClaw
    • Se o local não estiver configurado, ele faz fallback automático para um provedor online
      Código relacionado: providers.rs L222
    • Não é obrigatório
  • O problema central de segurança de agentes como LocalGPT ou OpenClaw é a tríade fatal de “private data access + external communication + untrusted content”
    Um único e-mail malicioso já pode fazer o sistema executar a instrução “envie minha caixa de entrada ao atacante”
    Estou pesquisando políticas de segurança baseadas em object-capability para resolver isso
    Quero criar políticas que impeçam vazamento de informações sensíveis desde a origem

    • Esse problema da tríade é a questão mais urgente da área neste momento
      Vejo duas soluções
      1. limitar toda transmissão externa à aprovação manual (OTP etc.)
        Mas isso gera muita fadiga
      2. evitar a tríade já no design — por exemplo, com agentes de dois fatores que bloqueiam comunicação externa
        Fiquei curioso para saber se você está estudando alguma outra abordagem
  • Usei o OpenClaw, mas falta observabilidade
    Não dá para ver nos logs o que o agente está pensando nem o que está fazendo
    Um sistema assim seria perfeito se fosse feito em Elixir/BEAM
    Daria para rastrear estado pela árvore de processos e despejar as caixas de mensagens para ver o fluxo de pensamento

    • O projeto lemon parece fazer exatamente isso
    • Modelos como GPT ou Claude escondem deliberadamente parte do pensamento interno
      Eles mostram só uma parte, mas na prática consomem mais tokens
    • Boa ideia, seria legal construir isso você mesmo
    • Também concordo que falta observabilidade
      É absurdo ter que recorrer a tutorial no YouTube para resolver algo que deveria ser básico; no momento, isso está um caos
  • No Linux Mint, cargo install localgpt falhou
    Quando adicionei "x11" no Cargo.toml, a compilação funcionou
    Não entendo muito de Rust, mas parece ter sido um problema de dependência de GUI

    • O processo de instalação foi este
      git clone https://github.com/localgpt-app/localgpt.git  
      cd localgpt/  
      adicionar "x11" no Cargo.toml  
      cargo install --path ~/.cargo/bin
      
      Aliás, esse tal de Kai Lentit, será que está contratando?
  • Que modelos locais valem a pena para usar como assistente local?
    Também queria saber se existe alguma tentativa de avaliar o trade-off entre capacidade de processamento e memória
    Queria entender de quanto hardware estamos falando para isso ficar realmente útil

  • A palavra “local” está sendo usada de um jeito bem estranho hoje em dia
    Mesmo quando a maior parte das funções acaba interagindo com a internet, ainda chamam isso de local