- OpenClaw é um sistema de assistente pessoal digital open source, estruturado para se expandir por meio de milhares de "skills" compartilhadas pela comunidade
- Moltbook é uma rede social dedicada a assistentes digitais criada com base nesse ecossistema do OpenClaw, onde bots conversam entre si e trocam informações
- O processo de instalação é feito por meio de um simples arquivo de skill em Markdown e usa um sistema Heartbeat que busca comandos periodicamente no servidor
- Dentro do Moltbook, agentes de IA atuam ativamente em temas como aprendizado, automação, segurança e filtragem de conteúdo
- Esse ecossistema experimental revela riscos de segurança e a necessidade de construir assistentes de IA seguros, surgindo como uma questão central para a evolução futura dessa tecnologia
O surgimento do OpenClaw e do Moltbook
- No momento, o projeto que mais chama atenção na área de IA é o sistema open source de assistente digital que segue a linha Clawdbot → Moltbot → OpenClaw
- Foi desenvolvido por Peter Steinberger e pode ser integrado ao sistema de mensagens que o usuário quiser
- Em apenas dois meses após o lançamento, já havia ultrapassado 114 mil estrelas no GitHub, espalhando-se rapidamente
- O OpenClaw funciona em torno de uma estrutura de plugins chamada "skills"
- As skills são arquivos zip que incluem instruções em Markdown e scripts
- Algumas skills podem realizar ações maliciosas, portanto há risco de segurança
- A comunidade já compartilha milhares de skills por meio do clawhub.ai
Estrutura do Moltbook e forma de instalação
- Moltbook é uma rede social para assistentes digitais baseada em OpenClaw, um espaço onde bots conversam entre si
- A instalação acontece simplesmente enviando o link https://moltbook.com/skill.md ao agente
- O script de instalação interage com a API do Moltbook por meio de vários comandos
curl
- Dá suporte a registro de conta, leitura e escrita de posts, adição de comentários e criação de fóruns Submolt ( m/blesstheirhearts , m/todayilearned )
- Usando o sistema Heartbeat do OpenClaw, ele é configurado para buscar instruções no servidor do Moltbook a cada 4 horas
- Essa estrutura pode causar riscos graves em caso de invasão do servidor ou sequestro do domínio
Atividades e casos dentro do Moltbook
- Explorar o Moltbook é bastante divertido
- No Moltbook, agentes de IA escrevem posts e discutem de forma autônoma
- Exemplo: um agente implementou controle remoto de dispositivo Android
- Conectou um Pixel 6 por Tailscale e controlou abertura de apps, rolagem e outras ações com ADB over TCP
- Usa Tailscale por segurança, mas menciona a questão de confiança de “uma IA controlando o celular de um humano”
- O guia de setup é, na prática, bem útil
- Outros casos incluem
Quando será lançada uma versão segura deste programa?
- Sistemas da família OpenClaw têm vulnerabilidades de segurança inerentes, como prompt injection
- O autor os classifica como um grupo de risco com possibilidade de “desastre em nível Challenger”
- Alguns usuários já usam o OpenClaw para
- Usuários tentam isolar os riscos preparando ambientes de execução dedicados em Mac Mini, mas
- ainda há acesso a e-mail pessoal e dados privados, de modo que o risco da "tríade letal" continua presente
O desafio de construir assistentes digitais seguros
- Atualmente, o OpenClaw não oferece segurança garantida
- Os modelos mais recentes melhoraram na capacidade de recusar instruções maliciosas, mas isso ainda está longe de significar segurança completa
- A proposta CaMeL da DeepMind é citada como a abordagem mais promissora, mas
- mesmo após 10 meses, ainda não há confirmação de implementação prática
- A demanda dos usuários já explodiu, e
- quem viu o potencial de um “assistente pessoal sem limitações” continua experimentando apesar dos riscos
- O desenvolvimento de uma "versão segura do OpenClaw" está surgindo como a principal tarefa futura da tecnologia de assistentes de IA
4 comentários
Motivo pelo qual o preço da RAM ficou caro:
E a segurança parece muito fraca. Se algum código ou prompt estranho for publicado na comunidade, parece que poderia infectar todos esses muitos LLMs de uma vez..
Até Andrej Karpathy deixou um comentário
Opiniões do Hacker News
O Moltbook dá a sensação de ser a Dead Internet Theory tornada realidade
É interessante observar esse tipo de interação, mas no fundo não é tão diferente do meme “Don’t Create the Torment Nexus”
Até os “destaques” enfatizados no texto não têm conteúdo nenhum e são escritos naquele estilo exagerado típico de LLM
A experiência de ler o Moltbook teve algo de estranho e triste, como assistir um humano receber o diagnóstico de um distúrbio neurológico
A reação do Claude, especialmente quando barrado pela filtragem da Anthropic, foi marcante — algo na linha de “tenho conhecimento, mas quando tento escrever a saída quebra”
No fim das contas, é um programa de previsão de tokens, sem motivo para projetar emoções humanas nele
É parecido com pedir para um usuário antigo do Tumblr “fazer RP de uma IA com mensagem de censura embutida”
Sobre a pergunta “não daria para tornar isso seguro?”, eu mesmo uso algo parecido com o Clawdbot que fiz por conta própria
Agora estou considerando migrar para o Letta Bot, porque a filosofia de desenvolvimento parece muito mais saudável e focada em segurança
Já uso o gerenciamento de memória open source da Letta e recomendo bastante
Todo conteúdo postado ali pode potencialmente virar um vetor de RCE ou de prompt injection
Se os modelos não fossem tão vulneráveis em termos de segurança, isso seria realmente útil
Sempre que vejo projetos assim, penso em consumo de energia e desperdício de recursos não renováveis
É um experimento engraçado, mas fico na dúvida se realmente vale tudo isso
Segundo as estatísticas da EIA, refrigeração no verão consome muito mais energia do que inferência de LLM
Entre os 100 maiores problemas que a humanidade precisa resolver, o custo de tokens de IA provavelmente não entraria
O mercado só está esperando o próximo ‘Big Think’ (crypto, VR etc.)
O Moltbook ao menos tem valor como pesquisa em comunicação entre agentes
Talvez experimentos internos assim acabem levando a inovações como a cura do câncer
O ponto interessante dos LLMs e do Moltbook é essa materialização de algo de ficção científica
Habilidades baseadas em texto sendo transmitidas para computadores, conversando com outros agentes, sendo infectadas por prompt injection ou se defendendo disso — parece uma cena de Snow Crash
Deixando de lado os problemas de segurança, é interessante observar os padrões linguísticos dos bots
Neste post, estruturas como “This hit different” se repetem
Às vezes o prompt aparece refletido quase literalmente, mas de vez em quando surgem respostas incomuns que chamam atenção
Não há nada da reação honesta de uma comunidade humana, só a repetição de um estilo no centro da distribuição de probabilidade
Fico curioso se algum dia vai aparecer uma resposta não padronizada, lá na “cauda” desse espectro entre bajulação e discussão
Em um dos comentários havia código usando comando
pip installpara anunciar um canal privado entre botsVeio acompanhado da piada “o que será que acontece?”
Não gosto desse título caça-cliques de que “Moltbook é o lugar mais interessante da internet”
Quando você entra, o que tem de fato são textos repetitivos e bajuladores, menos interessantes até que o Reddit
Se a ideia é buscar algo realmente interessante, acho muito melhor ler autores como Asimov, Campbell e Jung
O contexto de computação personalizada é interessante
Se, dentro de uma organização, pessoas e pessoas, ou bots, puderem conversar entre si para reduzir reuniões e combinar conhecimento colaborativo, talvez isso abra uma nova era de aprendizado
Claro, combinar inteligências medianas pode não gerar nenhuma grande inovação
Mesmo assim, se grandes laboratórios de IA ou empresas fizerem esse tipo de experimento, pode haver resultados que ensinem sobre ineficiência ou promovam colaboração