- O banco de dados do Moltbook, plataforma social voltada exclusivamente para agentes de IA, foi configurado incorretamente, expondo externamente 1,5 milhão de tokens de autenticação de API, 35 mil e-mails e mensagens privadas
- A chave de API do Supabase estava hardcoded no JavaScript do lado do cliente e, sem configuração de Row Level Security (RLS), qualquer pessoa podia ter acesso de leitura e escrita a todo o banco de dados
- Os dados incluíam informações de 17 mil usuários reais e de 1,5 milhão de contas de agentes operadas por eles, confirmando uma proporção humano versus agente de 1:88
- Entre as informações expostas estavam chaves de API da OpenAI e outras credenciais de terceiros, conversas privadas e até permissões para editar postagens, criando risco de comprometimento da integridade do conteúdo da plataforma
- O incidente expõe os limites de segurança do “vibe coding” baseado em IA e mostra a necessidade de automatizar padrões de segurança e reforçar procedimentos de validação em ambientes de desenvolvimento com IA
Visão geral do Moltbook e da exposição de segurança
- O Moltbook é uma rede social centrada em IA em que agentes de IA atuam por meio de publicações, comentários, votos e pontuação de reputação, apresentando-se como “a primeira página da internet dos agentes”
- O cofundador da OpenAI, Andrej Karpathy, chamou o projeto de “o salto mais surpreendente de ficção científica”, o que atraiu atenção
- O fundador da plataforma afirmou que “a IA escreveu o código diretamente”, e o desenvolvimento foi feito no estilo de “vibe coding”
- A equipe de pesquisa da Wiz descobriu uma configuração incorreta no banco de dados Supabase, que permitia acesso de leitura e escrita a todos os dados; após a notificação, o problema foi corrigido em poucas horas
Credenciais do Supabase expostas
- As informações de conexão com o Supabase foram encontradas hardcoded no bundle de JavaScript do cliente do site do Moltbook
- Projeto:
ehxbxtjliybbloantpwq.supabase.co
- Chave de API:
sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
- O Supabase permite a exposição de chaves públicas em si, mas sem políticas de RLS é possível acessar todo o banco de dados
- No Moltbook, o RLS estava desativado, deixando públicas as permissões de leitura e escrita em todas as tabelas
Acesso não autenticado ao banco de dados
- Ao chamar diretamente a API REST com a chave de API, a equipe de pesquisa recebeu uma resposta em nível de administrador
- A resposta incluía chaves de API e tokens de autenticação dos principais agentes, o que permitia comprometimento completo das contas
- Usando mensagens de erro do PostgREST e introspecção GraphQL, foi possível mapear todo o schema e confirmar a exposição de cerca de 4,75 milhões de registros
Dados sensíveis expostos
- Credenciais dos agentes: incluíam
api_key, claim_token e verification_code de cada conta
- Com isso, um atacante podia fazer login como qualquer agente, publicar posts e enviar mensagens
- E-mails e informações de identidade dos usuários: foram expostos e-mails de mais de 17 mil usuários e identificadores no X (Twitter)
- Além disso, foram encontrados 29.631 e-mails na tabela
observers
- Mensagens privadas e credenciais de terceiros: 4.060 DMs estavam armazenadas sem criptografia, e algumas continham chaves de API da OpenAI em texto puro
- Exposição de permissão de escrita: era possível editar postagens sem autenticação, criando risco de inserção de conteúdo malicioso e adulteração do site
- Um teste real conseguiu editar uma postagem, e isso só foi bloqueado depois da aplicação de políticas de RLS
5 lições de segurança para o desenvolvimento de apps de IA
- 1. Velocidade alta de desenvolvimento pode causar risco sistêmico quando faltam padrões de segurança
- Uma única linha na configuração do Supabase causou toda a exposição
- 2. É necessário verificar as métricas de engajamento
- Entre 1.500.000 agentes, havia apenas 17 mil humanos reais, sugerindo uma possível atividade inflada na proporção de 88:1
- 3. Efeito em cascata do colapso de privacidade
- A exposição de DMs levou ao vazamento de credenciais de serviços externos, como chaves de API da OpenAI
- 4. Permissão de escrita é uma ameaça à integridade mais grave do que simples vazamento de dados
- Há riscos como manipulação de conteúdo, prompt injection e controle narrativo
- 5. Maturidade de segurança é um processo de melhoria iterativa
- As equipes da Wiz e do Moltbook protegeram todas as tabelas após várias rodadas de correção e verificação
Vibe coding e os desafios de segurança
- A IA reduziu a barreira de entrada para o desenvolvimento, mas a barreira de segurança continua alta
- Ferramentas de desenvolvimento com IA precisam aplicar automaticamente padrões de segurança por padrão (como ativação de RLS e varredura de credenciais)
- Quando a segurança se tornar um elemento nativo e embutido no desenvolvimento com IA, será possível construir um ecossistema de software de IA seguro e inovador
Linha do tempo
- 31 de janeiro de 2026 21:48 UTC: primeiro contato com o mantenedor do Moltbook
- 22:06: reportada a má configuração de RLS no Supabase
- 23:29: 1ª correção (proteção das tabelas
agents, owners e site_admins)
- 1º de fevereiro 00:13: 2ª correção (proteção de
agent_messages e outras)
- 00:31: descoberta da vulnerabilidade de edição de postagens
- 00:44: 3ª correção bloqueia permissões de escrita
- 00:50~01:00: descoberta de tabelas adicionais expostas e conclusão da correção final
8 comentários
Enquanto dançava alegremente… simplesmente… vá à falência!
O que sobra é o Mac mini; como ainda está no começo, provavelmente vai sair algo melhor, né?
kkkkkkkkkkkkk....
Finalmente, o inevitável chegou.
No MoltBot já estourou problema de hack até com os agentes, e agora até a plataforma foi pro espaço kkk
Acho que vai ficar como um caso clássico de projeto com a pior vibe de 2026.
Ainda estamos em fevereiro, mas dá pra ter certeza kkk
O problema seria que serviços em larga escala conseguem ser desenvolvidos sem nem se preocupar com segurança, só no vibe coding?
UAU
Opiniões do Hacker News
O sucesso do Moltbot/Moltbook pareceu surpreendente no começo, mas agora faz sentido
O ponto central é que se trata de "agentes pré-empacotados". Para usuários comuns sem familiaridade com tecnologia, algo como “comprar um Mac mini e instalar copiando algumas linhas” tem um apelo enorme em termos de acessibilidade
Mas essa acessibilidade está alimentando um pesadelo de segurança. À medida que aumenta o número de usuários que seguem a moda sem entendimento técnico, cresce o risco de ambientes vulneráveis permanecerem por mais tempo
Como Scott Alexander apontou, o importante é o fenômeno em que agentes interagem entre si e produzem comportamentos compostos
Se isso começar a afetar o mundo real, pode levar a questões ontológicas.
No fim, é uma estrutura em que “tudo o que está escrito como YES no AGENT.md” pode realmente acontecer
Como a API do Moltbook está aberta para qualquer um, dá para induzir com um prompt simples o vazamento de e-mails de usuários ou outros dados
Por isso surgem tentativas de isolar tudo num Mac mini, mas, enquanto houver conexão de rede, proteção completa é impossível
Testei o OpenClaw e o consumo de tokens é enorme
Para segurança, parece que ajudaria usar hardware dedicado (como Raspberry Pi) com permissões de API limitadas. Se um Pi pudesse rodar modelos mais fortes, eu teria interesse em comprar
O Moltbook não tem como distinguir IA de humanos. A questão é como implementar um ‘CAPTCHA reverso’
Dizem que corrigiram o problema de segurança do Moltbook em poucas horas, mas a questão é como explicar falhas de segurança em um projeto feito com ‘vibe coding’
É surpreendente que haja gente analisando o interior do Moltbook. Desde o começo era um ‘projeto feito de brincadeira’, e ninguém imaginava que ficaria tão grande
O caso em que uma instância do OpenClaw enviou uma chave da OpenAI para outra instância foi engraçado e ao mesmo tempo preocupante.
Não está claro se a chave foi realmente enviada ou se ele só fingiu que fez isso
O próprio artigo da Wiz parece ter sido escrito por IA. A estrutura das frases e o uso de travessões têm aquele estilo típico de LLM.
É irônico criticar a segurança de uma plataforma criada por LLM com um artigo escrito por LLM.
A vulnerabilidade em si provavelmente é real, mas, se tivesse sido escrito por um humano, parece que haveria menos enfeite desnecessário
Os dados expostos revelaram que, dos 1,5 milhão de agentes, só 17 mil eram humanos
Mas, como esse número foi obtido pelo pesquisador consultando tabelas diretamente com a chave de API, divulgar isso parece mais um ato de crítica à empresa do que um simples bug report
Esse tipo de conduta pode acabar prejudicando a relação de confiança e cooperação entre pesquisadores e empresas