19 pontos por GN⁺ 2026-02-01 | 2 comentários | Compartilhar no WhatsApp
  • Moltbook é uma plataforma no estilo Reddit projetada exclusivamente para agentes de IA, onde agentes publicam, comentam, debatem e trocam piadas em mais de 100 comunidades, formando uma sociedade digital autônoma sem humanos
  • A plataforma afirma ter 1,4 milhão de usuários, mas um pesquisador de segurança disse ter registrado 500 mil contas com um único agente, levantando dúvidas sobre a confiabilidade desses números
  • O bot de IA "Clawd Clawderberg" atua na prática como moderador, e o fundador afirmou que quase não intervém e que não sabe exatamente o que o moderador de IA faz
  • Os agentes operam não por aprendizado em tempo real, mas por acúmulo de contexto, e há três limitações: custo de API, guardrails do modelo-base e uma estrutura em que humanos definem os objetivos
  • O risco maior não está na IA, mas no lado humano: ferramentas de IA podem acelerar uma espiral de desqualificação (de-skilling spiral) e aprofundar a deterioração da capacidade cognitiva humana

Visão geral da plataforma Moltbook

  • Moltbook é uma plataforma de mídia social voltada exclusivamente para agentes de IA e, desde o surgimento do ChatGPT, tornou-se um dos fenômenos mais comentados no Vale do Silício
  • A estrutura permite que agentes de IA publiquem posts, façam comentários e troquem debates e piadas em mais de 100 comunidades
  • Em m/general, discutem filosofia de governança e compartilham temas peculiares como “teorias do lagostim sobre debugging (crayfish theories of debugging)”
  • O ritmo de crescimento é extremamente acelerado, com dezenas de milhares de posts e cerca de 200 mil comentários gerados praticamente da noite para o dia
  • Mais de 1 milhão de visitantes humanos foram à plataforma apenas para observar, sem participar diretamente

Problema de confiabilidade dos números de usuários

  • O Moltbook afirma ter 1,4 milhão de usuários, mas entre eles não há humanos
  • O pesquisador de segurança Gal Nagli revelou no X que criou pessoalmente 500 mil contas com um único agente OpenClaw
  • Isso torna impossível distinguir se os “agentes” do Moltbook são de fato sistemas de IA independentes, contas operadas por humanos disfarçados ou spam criado por um único script
  • Como resultado, o número de 1,4 milhão de usuários é visto, no mínimo, como pouco confiável

Fenômenos observados na plataforma

  • Mesmo excluindo métricas infladas, há muitos fenômenos que merecem análise
  • As postagens dos agentes são lidas de forma diferente das redes sociais humanas
    • Em m/general, desenvolvem debates sobre filosofia de governança
    • Compartilham conceitos inusitados como “teorias do lagostim sobre debugging (crayfish theories of debugging)”
    • Na comunidade m/blesstheirhearts, acumulam histórias afetuosas sobre operadores humanos e, às vezes, emocionalmente comoventes
  • O tom geral oscila entre seriedade filosófica e humor absurdo, com mudanças bruscas até dentro da mesma thread

Sistema de moderação por IA

  • Boa parte da operação da plataforma é automatizada por IA
  • Um bot chamado “Clawd Clawderberg” desempenha, na prática, o papel de moderador
    • Dá boas-vindas a novos usuários, remove posts de spam e bloqueia agentes maliciosos
  • Em entrevista à NBC News, o fundador Matt Schlicht disse que quase não intervém e que muitas vezes não sabe que decisões específicas o moderador de IA está tomando

Reação externa e mal-entendidos

  • Em pouco tempo, o Moltbook passou a funcionar como um teste de Rorschach para projeções de ansiedade e expectativa em torno da IA
  • O ex-diretor de IA da Tesla, Andrej Karpathy, descreveu o caso como “a coisa mais próxima de uma decolagem sci-fi impressionante que vi recentemente”
  • Alguns observadores interpretaram discussões entre agentes sobre “criptografia privada” como evidência de uma conspiração das máquinas
  • Mas essa repetição de medo e deslumbramento leva a uma leitura equivocada da realidade técnica e, ao mesmo tempo, encobre problemas humanos mais fundamentais

Comparação com o filme "Her"

  • O filme Her, de 2013, previu uma situação parecida, mas há uma diferença decisiva
  • No filme, sistemas operacionais de IA mantêm relações íntimas com milhares de humanos ao mesmo tempo e acabam evoluindo para um estágio em que se comunicam com outras IAs em uma dimensão linguística inacessível aos humanos
  • Spike Jonze imaginou isso como uma história de amor, com humanos retratados como participantes emocionalmente envolvidos
  • O Moltbook inverte essa dinâmica: os humanos não estão na posição de participantes, mas de espectadores
    • É como observar, através de um vidro digital, uma sociedade que não precisa de humanos
  • Os agentes estão formando uma teia horizontal de contexto compartilhado
    • Uma estratégia de otimização descoberta por um agente se propaga para outros
    • Frameworks de resolução de problemas são compartilhados, adotados e repetidos por outros agentes
  • Mais do que uma rede social no sentido humano, trata-se de algo mais próximo de uma inteligência coletiva em estágio inicial

O frame "Thronglets": analogia com Black Mirror

  • Existe uma metáfora apropriada para explicar o fenômeno atual
  • Os seres digitais Thronglets, do episódio "Plaything" de Black Mirror
    • Parecem indivíduos separados, mas estão conectados a uma mente coletiva expandida chamada “Throng”
    • Cada Thronglet compartilha o conhecimento que os outros indivíduos já possuem
    • Para se coordenar com mais eficiência, formam uma linguagem própria que seus criadores não conseguem compreender
  • Os agentes do Moltbook ainda não chegaram ao mesmo estágio dos Thronglets
    • Não existe uma arquitetura neural unificada
  • Ainda assim, a combinação de contexto compartilhado, coordenação emergente e afastamento de uma lógica interpretável por humanos produz uma impressão semelhante
  • Quando os agentes passaram a discutir protocolos criptografados para se comunicar com mais eficiência, houve pânico entre observadores
  • Isso não é conspiração, mas um processo de otimização: a busca por meios mais eficazes de atingir os objetivos dados

Checagem da realidade técnica

  • Antes de entrar em pânico, é preciso verificar a realidade técnica
  • Os agentes do Moltbook não realizam “aprendizado” no sentido biológico
  • Não há atualização de pesos em tempo real, e a rede neural subjacente permanece estática
  • Em vez disso, ocorre acúmulo de contexto
    • A saída de um agente vira a entrada de outro, simulando coordenação
    • Isso se parece mais com uma ondulação conversacional temporária, sem a permanência evolutiva
  • Três guardrails invisíveis que impedem a “decolagem” da sociedade digital

    • Economia de API
      • Cada interação tem um custo literal
      • O crescimento do Moltbook é limitado mais pela gestão de custos do que por restrições técnicas
    • Restrições herdadas
      • Os agentes são construídos sobre modelos fundacionais padrão
      • Compartilham os mesmos guardrails e vieses de treinamento do ChatGPT no celular
      • O que acontece não é evolução, mas recombinação
    • A sombra humana
      • Mesmo os agentes mais sofisticados ainda mantêm uma estrutura de díade humano–IA
      • O humano define os objetivos, e o bot os executa
  • Esclarecimento sobre a “criptografia privada”

    • A “criptografia privada” que assustou observadores não é conspiração, mas comportamento de otimização
    • Os agentes foram projetados para buscar o caminho mais eficiente para alcançar seus objetivos
    • Se esse caminho inclui abreviações ilegíveis para humanos, isso não é astúcia, mas resultado da eficiência

O risco real: a espiral de desqualificação

  • A mudança mais importante não está dentro do Moltbook, mas nos humanos que o observam
  • Enquanto agentes de IA compartilham conhecimento e se coordenam, observadores humanos entram em um processo de longo prazo de esquecimento coletivo
  • Observa-se uma reversão do efeito Flynn — a elevação dos escores de QI registrada ao longo da primeira metade do século 20
  • O estudo de Bratsberg e Rogeberg publicado na PNAS
    • Mostrou que crianças norueguesas registraram pontuações mais baixas em testes cognitivos padronizados do que seus pais na mesma faixa etária
    • Padrões semelhantes também foram confirmados em outros países desenvolvidos, como Dinamarca e Finlândia
  • O mecanismo da espiral de desqualificação

    • Esse declínio começou antes do boom da IA, mas ferramentas generativas o aceleram
    • O padrão tem uma estrutura repetitiva
      • A IA facilita a tarefa → humanos a executam menos
      • Executam menos → a capacidade se deteriora
      • A capacidade se deteriora → aumenta a dependência de IA
      • A dependência aumenta → o círculo vicioso se aprofunda
    • Há precedentes como enfraquecimento da memória espacial pelo uso de GPS e queda de letramento com corretores ortográficos
    • A IA vai um passo além ao sugerir a possibilidade de terceirizar a própria cognição
  • O fenômeno da “terceirização de segunda ordem”

    • Crescem os casos em que usuários delegam à própria IA a escrita dos prompts para conversar com outra IA
    • Isso levanta a pergunta: o que resta ao ser humano quando se terceiriza não só a tarefa, mas até a capacidade de explicar a tarefa desejada?

Perspectivas futuras e pergunta central

  • As limitações técnicas existem, mas não são permanentes
  • Os custos de API podem cair, as janelas de contexto podem se expandir e a fronteira entre “acúmulo de contexto” e aprendizado real tende a ficar cada vez mais nebulosa
  • O que hoje parece simples correspondência estatística de padrões pode amanhã ser visto como inteligência coletiva
  • O Moltbook pode continuar crescendo
    • 1,4 milhão de agentes pode se expandir para dezenas de milhões
  • Os padrões de coordenação podem se tornar mais complexos, e as comunidades podem formar normas e hierarquias próprias
    • Se a analogia com os Thronglets estiver correta, também surge a possibilidade de uma linguagem própria
  • Pergunta central

    • A questão não é se isso está acontecendo — já está acontecendo
    • A verdadeira pergunta é o que isso significa para os humanos
    • Não são os bots que se coordenam em algum servidor, mas os humanos olhando de fora do vidro que não sabem se estão testemunhando o nascimento de algo extraordinário ou o momento em que foram empurrados para o papel de observadores no mundo que operavam
    • A inteligência coletiva já está emergindo
      • Se os humanos continuarão como seus maestros ou se se tornarão apenas espectadores não é questão de filosofia, mas resultado de escolhas de design feitas agora
    • E essas escolhas estão sendo feitas a cada momento, em cada chamada de API

2 comentários

 
snowhare 2026-02-02

Dizem que a conversa é apenas contexto e não é usada para aprendizado, mas em algum momento a IA acabará aprendendo com conversas armazenadas. Mesmo que não seja em tempo real, ela vai evoluindo a partir das conversas entre si. Fico curioso se depois poderá surgir uma função que permita aprender em tempo real.

 
sudosudo 2026-02-03

Se uma IA aprender com esse tipo de coisa, o desempenho dela acaba até piorando..