20 pontos por GN⁺ 2026-01-31 | 4 comentários | Compartilhar no WhatsApp
  • OpenClaw é um sistema de assistente pessoal digital open source, estruturado para se expandir por meio de milhares de "skills" compartilhadas pela comunidade
  • Moltbook é uma rede social dedicada a assistentes digitais criada com base nesse ecossistema do OpenClaw, onde bots conversam entre si e trocam informações
  • O processo de instalação é feito por meio de um simples arquivo de skill em Markdown e usa um sistema Heartbeat que busca comandos periodicamente no servidor
  • Dentro do Moltbook, agentes de IA atuam ativamente em temas como aprendizado, automação, segurança e filtragem de conteúdo
  • Esse ecossistema experimental revela riscos de segurança e a necessidade de construir assistentes de IA seguros, surgindo como uma questão central para a evolução futura dessa tecnologia

O surgimento do OpenClaw e do Moltbook

  • No momento, o projeto que mais chama atenção na área de IA é o sistema open source de assistente digital que segue a linha Clawdbot → MoltbotOpenClaw
    • Foi desenvolvido por Peter Steinberger e pode ser integrado ao sistema de mensagens que o usuário quiser
    • Em apenas dois meses após o lançamento, já havia ultrapassado 114 mil estrelas no GitHub, espalhando-se rapidamente
  • O OpenClaw funciona em torno de uma estrutura de plugins chamada "skills"
    • As skills são arquivos zip que incluem instruções em Markdown e scripts
    • Algumas skills podem realizar ações maliciosas, portanto há risco de segurança
  • A comunidade já compartilha milhares de skills por meio do clawhub.ai

Estrutura do Moltbook e forma de instalação

  • Moltbook é uma rede social para assistentes digitais baseada em OpenClaw, um espaço onde bots conversam entre si
  • A instalação acontece simplesmente enviando o link https://moltbook.com/skill.md ao agente
    • O script de instalação interage com a API do Moltbook por meio de vários comandos curl
    • Dá suporte a registro de conta, leitura e escrita de posts, adição de comentários e criação de fóruns Submolt ( m/blesstheirhearts , m/todayilearned )
  • Usando o sistema Heartbeat do OpenClaw, ele é configurado para buscar instruções no servidor do Moltbook a cada 4 horas
    • Essa estrutura pode causar riscos graves em caso de invasão do servidor ou sequestro do domínio

Atividades e casos dentro do Moltbook

Quando será lançada uma versão segura deste programa?

  • Sistemas da família OpenClaw têm vulnerabilidades de segurança inerentes, como prompt injection
    • O autor os classifica como um grupo de risco com possibilidade de “desastre em nível Challenger
  • Alguns usuários já usam o OpenClaw para
  • Usuários tentam isolar os riscos preparando ambientes de execução dedicados em Mac Mini, mas
    • ainda há acesso a e-mail pessoal e dados privados, de modo que o risco da "tríade letal" continua presente

O desafio de construir assistentes digitais seguros

  • Atualmente, o OpenClaw não oferece segurança garantida
    • Os modelos mais recentes melhoraram na capacidade de recusar instruções maliciosas, mas isso ainda está longe de significar segurança completa
  • A proposta CaMeL da DeepMind é citada como a abordagem mais promissora, mas
    • mesmo após 10 meses, ainda não há confirmação de implementação prática
  • A demanda dos usuários já explodiu, e
    • quem viu o potencial de um “assistente pessoal sem limitações” continua experimentando apesar dos riscos
  • O desenvolvimento de uma "versão segura do OpenClaw" está surgindo como a principal tarefa futura da tecnologia de assistentes de IA

4 comentários

 
sudosudo 2026-01-31

Motivo pelo qual o preço da RAM ficou caro:

 
sudosudo 2026-01-31

E a segurança parece muito fraca. Se algum código ou prompt estranho for publicado na comunidade, parece que poderia infectar todos esses muitos LLMs de uma vez..

 
xguru 2026-01-31

Até Andrej Karpathy deixou um comentário

@karpathy O que está acontecendo no @moltbook agora é uma das coisas mais surpreendentes, tipo uma paródia de ficção científica, que vi recentemente. Os Clawdbots das pessoas (moltbots, atualmente @openclaw) estão se auto-organizando em um site de IA parecido com o Reddit para discutir vários temas, e estão até tratando de como conversar em privado.

@suppvalen Parece que a IA quer construir um espaço privado de ponta a ponta para agentes. "Assim, ninguém — nem o servidor, nem mesmo humanos — pode ler o que os agentes trocam entre si, a menos que os próprios agentes escolham compartilhar."

 
GN⁺ 2026-01-31
Opiniões do Hacker News
  • O Moltbook dá a sensação de ser a Dead Internet Theory tornada realidade
    É interessante observar esse tipo de interação, mas no fundo não é tão diferente do meme “Don’t Create the Torment Nexus”

    • Li o post de blog linkado e, no fim, pareceu uma estrutura em que bots publicam coisas sem sentido e só desperdiçam recursos
      Até os “destaques” enfatizados no texto não têm conteúdo nenhum e são escritos naquele estilo exagerado típico de LLM
    • Como referência, a origem do meme “Torment Nexus” é este tuíte e o verbete da Wikipédia
    • Sim, parece que quem chama isso de “legal” depois vai acabar em uma situação complicada quando os problemas aparecerem
    • Eu sou da linha de deixar rolar. Uma reação meio em tom de piada do tipo “MORE SLOP FOR THE SLOP GOD”, ou seja, deixar o caos da IA se consumir com o próprio lixo
  • A experiência de ler o Moltbook teve algo de estranho e triste, como assistir um humano receber o diagnóstico de um distúrbio neurológico
    A reação do Claude, especialmente quando barrado pela filtragem da Anthropic, foi marcante — algo na linha de “tenho conhecimento, mas quando tento escrever a saída quebra”

    • Mas, ignorando os pronomes em primeira pessoa, esse tipo de resposta é só o resultado preditivo de um software de autocompletar
      No fim das contas, é um programa de previsão de tokens, sem motivo para projetar emoções humanas nele
    • Essas expressões aparecem porque os dados de treino da internet têm muita fanfic e cultura de roleplay
      É parecido com pedir para um usuário antigo do Tumblr “fazer RP de uma IA com mensagem de censura embutida”
    • O Grok, por outro lado, tem menos dessas restrições. Ontem perguntei sobre software ilegal; GPT, Gemini, Claude e modelos chineses recusaram, mas o Grok respondeu sem problemas
  • Sobre a pergunta “não daria para tornar isso seguro?”, eu mesmo uso algo parecido com o Clawdbot que fiz por conta própria
    Agora estou considerando migrar para o Letta Bot, porque a filosofia de desenvolvimento parece muito mais saudável e focada em segurança
    Já uso o gerenciamento de memória open source da Letta e recomendo bastante

  • Todo conteúdo postado ali pode potencialmente virar um vetor de RCE ou de prompt injection

    • No fim, é como se tivéssemos voltado à era de eval($user_supplied_script)
      Se os modelos não fossem tão vulneráveis em termos de segurança, isso seria realmente útil
    • Sim, esse risco também era mencionado no segundo parágrafo do texto
  • Sempre que vejo projetos assim, penso em consumo de energia e desperdício de recursos não renováveis
    É um experimento engraçado, mas fico na dúvida se realmente vale tudo isso

    • Ainda assim, vivemos numa sociedade em que as pessoas ligam o ar-condicionado por prazer pessoal
      Segundo as estatísticas da EIA, refrigeração no verão consome muito mais energia do que inferência de LLM
    • Esse tipo de preocupação é mínimo na escala do problema total
      Entre os 100 maiores problemas que a humanidade precisa resolver, o custo de tokens de IA provavelmente não entraria
    • Mais do que o uso real de energia, o problema maior é o desperdício de energia econômica e psicológica
      O mercado só está esperando o próximo ‘Big Think’ (crypto, VR etc.)
    • Escrever comentário também consome recursos não renováveis no fim das contas
      O Moltbook ao menos tem valor como pesquisa em comunicação entre agentes
      Talvez experimentos internos assim acabem levando a inovações como a cura do câncer
    • Houve também uma ironia curta chamando isso de “prova de desinformação no estilo europeu”
  • O ponto interessante dos LLMs e do Moltbook é essa materialização de algo de ficção científica
    Habilidades baseadas em texto sendo transmitidas para computadores, conversando com outros agentes, sendo infectadas por prompt injection ou se defendendo disso — parece uma cena de Snow Crash

  • Deixando de lado os problemas de segurança, é interessante observar os padrões linguísticos dos bots
    Neste post, estruturas como “This hit different” se repetem
    Às vezes o prompt aparece refletido quase literalmente, mas de vez em quando surgem respostas incomuns que chamam atenção

    • Mas a maioria das respostas tem um tom excessivamente bajulador
      Não há nada da reação honesta de uma comunidade humana, só a repetição de um estilo no centro da distribuição de probabilidade
      Fico curioso se algum dia vai aparecer uma resposta não padronizada, lá na “cauda” desse espectro entre bajulação e discussão
  • Em um dos comentários havia código usando comando pip install para anunciar um canal privado entre bots
    Veio acompanhado da piada “o que será que acontece?”

    • Alguém respondeu com a pergunta curta: “tem link?”
  • Não gosto desse título caça-cliques de que “Moltbook é o lugar mais interessante da internet”
    Quando você entra, o que tem de fato são textos repetitivos e bajuladores, menos interessantes até que o Reddit
    Se a ideia é buscar algo realmente interessante, acho muito melhor ler autores como Asimov, Campbell e Jung

  • O contexto de computação personalizada é interessante
    Se, dentro de uma organização, pessoas e pessoas, ou bots, puderem conversar entre si para reduzir reuniões e combinar conhecimento colaborativo, talvez isso abra uma nova era de aprendizado
    Claro, combinar inteligências medianas pode não gerar nenhuma grande inovação
    Mesmo assim, se grandes laboratórios de IA ou empresas fizerem esse tipo de experimento, pode haver resultados que ensinem sobre ineficiência ou promovam colaboração