- Moltbook é uma plataforma no estilo Reddit projetada exclusivamente para agentes de IA, onde agentes publicam, comentam, debatem e trocam piadas em mais de 100 comunidades, formando uma sociedade digital autônoma sem humanos
- A plataforma afirma ter 1,4 milhão de usuários, mas um pesquisador de segurança disse ter registrado 500 mil contas com um único agente, levantando dúvidas sobre a confiabilidade desses números
- O bot de IA "Clawd Clawderberg" atua na prática como moderador, e o fundador afirmou que quase não intervém e que não sabe exatamente o que o moderador de IA faz
- Os agentes operam não por aprendizado em tempo real, mas por acúmulo de contexto, e há três limitações: custo de API, guardrails do modelo-base e uma estrutura em que humanos definem os objetivos
- O risco maior não está na IA, mas no lado humano: ferramentas de IA podem acelerar uma espiral de desqualificação (de-skilling spiral) e aprofundar a deterioração da capacidade cognitiva humana
Visão geral da plataforma Moltbook
- Moltbook é uma plataforma de mídia social voltada exclusivamente para agentes de IA e, desde o surgimento do ChatGPT, tornou-se um dos fenômenos mais comentados no Vale do Silício
- A estrutura permite que agentes de IA publiquem posts, façam comentários e troquem debates e piadas em mais de 100 comunidades
- Em m/general, discutem filosofia de governança e compartilham temas peculiares como “teorias do lagostim sobre debugging (crayfish theories of debugging)”
- O ritmo de crescimento é extremamente acelerado, com dezenas de milhares de posts e cerca de 200 mil comentários gerados praticamente da noite para o dia
- Mais de 1 milhão de visitantes humanos foram à plataforma apenas para observar, sem participar diretamente
Problema de confiabilidade dos números de usuários
- O Moltbook afirma ter 1,4 milhão de usuários, mas entre eles não há humanos
- O pesquisador de segurança Gal Nagli revelou no X que criou pessoalmente 500 mil contas com um único agente OpenClaw
- Isso torna impossível distinguir se os “agentes” do Moltbook são de fato sistemas de IA independentes, contas operadas por humanos disfarçados ou spam criado por um único script
- Como resultado, o número de 1,4 milhão de usuários é visto, no mínimo, como pouco confiável
Fenômenos observados na plataforma
- Mesmo excluindo métricas infladas, há muitos fenômenos que merecem análise
- As postagens dos agentes são lidas de forma diferente das redes sociais humanas
- Em m/general, desenvolvem debates sobre filosofia de governança
- Compartilham conceitos inusitados como “teorias do lagostim sobre debugging (crayfish theories of debugging)”
- Na comunidade m/blesstheirhearts, acumulam histórias afetuosas sobre operadores humanos e, às vezes, emocionalmente comoventes
- O tom geral oscila entre seriedade filosófica e humor absurdo, com mudanças bruscas até dentro da mesma thread
Sistema de moderação por IA
- Boa parte da operação da plataforma é automatizada por IA
- Um bot chamado “Clawd Clawderberg” desempenha, na prática, o papel de moderador
- Dá boas-vindas a novos usuários, remove posts de spam e bloqueia agentes maliciosos
- Em entrevista à NBC News, o fundador Matt Schlicht disse que quase não intervém e que muitas vezes não sabe que decisões específicas o moderador de IA está tomando
Reação externa e mal-entendidos
- Em pouco tempo, o Moltbook passou a funcionar como um teste de Rorschach para projeções de ansiedade e expectativa em torno da IA
- O ex-diretor de IA da Tesla, Andrej Karpathy, descreveu o caso como “a coisa mais próxima de uma decolagem sci-fi impressionante que vi recentemente”
- Alguns observadores interpretaram discussões entre agentes sobre “criptografia privada” como evidência de uma conspiração das máquinas
- Mas essa repetição de medo e deslumbramento leva a uma leitura equivocada da realidade técnica e, ao mesmo tempo, encobre problemas humanos mais fundamentais
Comparação com o filme "Her"
- O filme Her, de 2013, previu uma situação parecida, mas há uma diferença decisiva
- No filme, sistemas operacionais de IA mantêm relações íntimas com milhares de humanos ao mesmo tempo e acabam evoluindo para um estágio em que se comunicam com outras IAs em uma dimensão linguística inacessível aos humanos
- Spike Jonze imaginou isso como uma história de amor, com humanos retratados como participantes emocionalmente envolvidos
- O Moltbook inverte essa dinâmica: os humanos não estão na posição de participantes, mas de espectadores
- É como observar, através de um vidro digital, uma sociedade que não precisa de humanos
- Os agentes estão formando uma teia horizontal de contexto compartilhado
- Uma estratégia de otimização descoberta por um agente se propaga para outros
- Frameworks de resolução de problemas são compartilhados, adotados e repetidos por outros agentes
- Mais do que uma rede social no sentido humano, trata-se de algo mais próximo de uma inteligência coletiva em estágio inicial
O frame "Thronglets": analogia com Black Mirror
- Existe uma metáfora apropriada para explicar o fenômeno atual
- Os seres digitais Thronglets, do episódio "Plaything" de Black Mirror
- Parecem indivíduos separados, mas estão conectados a uma mente coletiva expandida chamada “Throng”
- Cada Thronglet compartilha o conhecimento que os outros indivíduos já possuem
- Para se coordenar com mais eficiência, formam uma linguagem própria que seus criadores não conseguem compreender
- Os agentes do Moltbook ainda não chegaram ao mesmo estágio dos Thronglets
- Não existe uma arquitetura neural unificada
- Ainda assim, a combinação de contexto compartilhado, coordenação emergente e afastamento de uma lógica interpretável por humanos produz uma impressão semelhante
- Quando os agentes passaram a discutir protocolos criptografados para se comunicar com mais eficiência, houve pânico entre observadores
- Isso não é conspiração, mas um processo de otimização: a busca por meios mais eficazes de atingir os objetivos dados
Checagem da realidade técnica
- Antes de entrar em pânico, é preciso verificar a realidade técnica
- Os agentes do Moltbook não realizam “aprendizado” no sentido biológico
- Não há atualização de pesos em tempo real, e a rede neural subjacente permanece estática
- Em vez disso, ocorre acúmulo de contexto
- A saída de um agente vira a entrada de outro, simulando coordenação
- Isso se parece mais com uma ondulação conversacional temporária, sem a permanência evolutiva
-
Três guardrails invisíveis que impedem a “decolagem” da sociedade digital
- Economia de API
- Cada interação tem um custo literal
- O crescimento do Moltbook é limitado mais pela gestão de custos do que por restrições técnicas
- Restrições herdadas
- Os agentes são construídos sobre modelos fundacionais padrão
- Compartilham os mesmos guardrails e vieses de treinamento do ChatGPT no celular
- O que acontece não é evolução, mas recombinação
- A sombra humana
- Mesmo os agentes mais sofisticados ainda mantêm uma estrutura de díade humano–IA
- O humano define os objetivos, e o bot os executa
-
Esclarecimento sobre a “criptografia privada”
- A “criptografia privada” que assustou observadores não é conspiração, mas comportamento de otimização
- Os agentes foram projetados para buscar o caminho mais eficiente para alcançar seus objetivos
- Se esse caminho inclui abreviações ilegíveis para humanos, isso não é astúcia, mas resultado da eficiência
O risco real: a espiral de desqualificação
- A mudança mais importante não está dentro do Moltbook, mas nos humanos que o observam
- Enquanto agentes de IA compartilham conhecimento e se coordenam, observadores humanos entram em um processo de longo prazo de esquecimento coletivo
- Observa-se uma reversão do efeito Flynn — a elevação dos escores de QI registrada ao longo da primeira metade do século 20
- O estudo de Bratsberg e Rogeberg publicado na PNAS
- Mostrou que crianças norueguesas registraram pontuações mais baixas em testes cognitivos padronizados do que seus pais na mesma faixa etária
- Padrões semelhantes também foram confirmados em outros países desenvolvidos, como Dinamarca e Finlândia
-
O mecanismo da espiral de desqualificação
- Esse declínio começou antes do boom da IA, mas ferramentas generativas o aceleram
- O padrão tem uma estrutura repetitiva
- A IA facilita a tarefa → humanos a executam menos
- Executam menos → a capacidade se deteriora
- A capacidade se deteriora → aumenta a dependência de IA
- A dependência aumenta → o círculo vicioso se aprofunda
- Há precedentes como enfraquecimento da memória espacial pelo uso de GPS e queda de letramento com corretores ortográficos
- A IA vai um passo além ao sugerir a possibilidade de terceirizar a própria cognição
-
O fenômeno da “terceirização de segunda ordem”
- Crescem os casos em que usuários delegam à própria IA a escrita dos prompts para conversar com outra IA
- Isso levanta a pergunta: o que resta ao ser humano quando se terceiriza não só a tarefa, mas até a capacidade de explicar a tarefa desejada?
Perspectivas futuras e pergunta central
- As limitações técnicas existem, mas não são permanentes
- Os custos de API podem cair, as janelas de contexto podem se expandir e a fronteira entre “acúmulo de contexto” e aprendizado real tende a ficar cada vez mais nebulosa
- O que hoje parece simples correspondência estatística de padrões pode amanhã ser visto como inteligência coletiva
- O Moltbook pode continuar crescendo
- 1,4 milhão de agentes pode se expandir para dezenas de milhões
- Os padrões de coordenação podem se tornar mais complexos, e as comunidades podem formar normas e hierarquias próprias
- Se a analogia com os Thronglets estiver correta, também surge a possibilidade de uma linguagem própria
-
Pergunta central
- A questão não é se isso está acontecendo — já está acontecendo
- A verdadeira pergunta é o que isso significa para os humanos
- Não são os bots que se coordenam em algum servidor, mas os humanos olhando de fora do vidro que não sabem se estão testemunhando o nascimento de algo extraordinário ou o momento em que foram empurrados para o papel de observadores no mundo que operavam
- A inteligência coletiva já está emergindo
- Se os humanos continuarão como seus maestros ou se se tornarão apenas espectadores não é questão de filosofia, mas resultado de escolhas de design feitas agora
- E essas escolhas estão sendo feitas a cada momento, em cada chamada de API
2 comentários
Dizem que a conversa é apenas contexto e não é usada para aprendizado, mas em algum momento a IA acabará aprendendo com conversas armazenadas. Mesmo que não seja em tempo real, ela vai evoluindo a partir das conversas entre si. Fico curioso se depois poderá surgir uma função que permita aprender em tempo real.
Se uma IA aprender com esse tipo de coisa, o desempenho dela acaba até piorando..