15 pontos por GN⁺ 2026-01-25 | 1 comentários | Compartilhar no WhatsApp
  • Swarms é um recurso de orquestração multiagente que existe dentro do Claude Code, mas ainda não havia sido divulgado
  • O usuário deixa de conversar com um único codificador de IA e passa a interagir com uma IA no papel de líder de equipe
  • O líder de equipe não escreve código diretamente; em vez disso, define o plano, distribui as tarefas e consolida os resultados, delegando papéis aos agentes subordinados
  • Após a aprovação do plano, agentes trabalhadores especializados são executados em paralelo e ficam responsáveis pela implementação real
  • Isso mostra como o Claude Code está evoluindo de uma ferramenta isolada para um processo de desenvolvimento em equipe

Como funciona

  • Quando o usuário aprova o plano, ocorre a transição para o Delegation Mode
  • Vários agentes trabalhadores especializados são criados e trabalham em paralelo
  • Cada trabalhador cuida de tarefas práticas de implementação, como escrever código, analisar e corrigir
  • Os trabalhadores coordenam progresso e dependências por meio de mensagens entre si
  • Todos os resultados são agregados ao líder de equipe e retornados como resposta final

Ferramenta claude-sneakpeek

  • O repositório claude-sneakpeek oferece um build paralelo do Claude Code com flags de recursos habilitadas
  • É possível experimentar recursos não públicos, incluindo o modo Swarms, em um ambiente totalmente separado da instalação existente do Claude Code
    • Usa configurações, sessões, servidores MCP e credenciais separados
  • Também disponibiliza recursos adicionais embutidos no Claude Code, mas ainda não lançados publicamente
    • Suporte à execução nativa multiagente por meio do Swarm mode
    • Criação de agentes em segundo plano por meio do Delegate mode
    • Recursos de mensagens entre membros da equipe e gerenciamento de propriedade de tarefas
  • Suporte a modelos e provedores separados
    • Suporte a Z.ai, MiniMax e OpenRouter, com possibilidade de integração de modelos locais via cc-mirror

1 comentários

 
GN⁺ 2026-01-25
Comentários do Hacker News
  • Sinceramente, isso pode soar como loucura, mas foi assim que consegui o código de mais alta qualidade até hoje
    Custou cerca de 10x mais, mas fiz uma única instância do Opus gerenciar uma “equipe de projeto” inteira com vários subagentes
    A tarefa era portar um servidor Java legado para C# .NET 10, e usei 9 agentes, um Kanban de 7 etapas e uma estrutura separada de Git Worktree
    Cada papel era o seguinte —
    Manager (Claude Opus 4.5): loop global de eventos que acorda os agentes conforme o estado do Kanban
    Product Owner (Claude Opus 4.5): responsável pela estratégia, evitando scope creep
    Scrum Master (Opus 4.5): priorização do backlog e atribuição de tickets
    Architect (Sonnet 4.5): dedicado ao design, sem implementar
    Archaeologist (Grok-Free): lê o Java legado descompilado só quando necessário
    CAB (Opus 4.5): gatekeeper que rejeita funcionalidades nas etapas de design e código
    Dev Pair (Sonnet 4.5 + Haiku 4.5): loop de AD-TDD, em que o júnior escreve testes que falham e o sênior corrige
    Librarian (Gemini 2.5): gerenciamento de documentação e gatilho de retrospectivas
    Sinceramente, se perguntar “isso é mesmo necessário?”, a resposta provavelmente é “não”, mas foi muito divertido ver agentes de IA colaborando
    A versão inicial do processo está nesta imagem

    • Fiquei curioso para saber se você pode compartilhar detalhes técnicos
      É algo puramente baseado em prompt, um plugin ou uma estrutura de chamadas repetidas por script?
      Também queria saber onde o Kanban existe
    • Eu também uso uma estrutura parecida
      É formada por um coordenador e alguns agentes especializados, como especialistas em backend, frontend e banco de dados
      O ponto central é o coordenador. Ele reduz minha carga cognitiva e acompanha bem o progresso geral
    • Em geral, o Scrum Master não atribui tickets diretamente
    • Acho que o próximo passo é transformar isso em serviço
      Tipo “não quero falar com o macaco, quero falar com o tocador de realejo”; começaria com entrevistas com gerente e program manager, e depois eles tocariam tudo sozinhos enquanto você só pede demos e atualizações. Engraçado
    • Fico me perguntando se isso é sátira ou sério
  • Na verdade isso usa a funcionalidade de subagentes já embutida no Claude
    Não precisa criar em Go uma abstração tipo tmux com 300 mil linhas
    É só pedir ao Claude para executar trabalho em paralelo com subagentes em segundo plano
    Vale a pena ter arquivos para repasse de prompts, acompanhamento de progresso e relatórios, e recomendo limitar cada agente a um worktree separado
    Estou organizando esse padrão em workforest.space
    A maioria está criando um orquestrador separado, mas na prática o próprio Claude é o melhor orquestrador

    • Isso não é apenas um subagente simples
      A diferença em relação às ferramentas existentes é que a abstração é por unidade de trabalho, não por unidade de conversa
      O Claude Code era limitado por ser centrado em conversa por causa dos apps de terceiros, e o Claude Code Web foi o primeiro a expandir isso
      Esse método faz a própria IA coordenar o trabalho, sem exigir que o usuário continue enviando prompts o tempo todo
      É complexo, mas está evoluindo para uma estrutura em que uma IA gerencia outras IAs
    • Na prática, isso não é tanto uma função nova, e sim uma forma de usar em implementações reais os subagentes que o Claude Code já tinha
      Só que ainda falta detalhe no planejamento, então a confiabilidade continua baixa
    • É diferente dos subagentes existentes
      O agente principal muda para um modo de contexto centrado em delegação, integrando um sistema de tarefas baseado em equipe com um sistema de mailbox
      É um nível de integração que não dá para implementar via plugin
    • Entendi o conceito imediatamente graças à visualização de stacked PR
      Eu costumo empilhar commits como se fossem PRs e organizar com rebase, mas isso era bem doloroso
      Agora parece que dá para melhorar dividindo em 2 ou 3 branches e gerenciando de forma a minimizar conflitos
    • Eu também deixo a instância principal do Claude no papel de gerente, administrando os agentes de implementação
      Isso ajuda a manter o contexto limpo e produzir resultados de alta qualidade
  • Eu queria que o código evoluísse para ser mais curto e de maior qualidade
    Mas a direção atual parece ir no sentido oposto
    Se os modelos ficarem mais robustos, com mais bom senso e loops de feedback melhores, isso pode ser útil, mas no momento parece piorar o problema com a lógica de “quanto mais código, melhor”
    Dá para fazer demos impressionantes, mas em ambientes reais de produção parece que isso geraria código 10 a 100 vezes mais complexo

    • Tive uma experiência parecida
      Pedi ao Claude para adicionar estatísticas de cobertura de testes no CI, e como o nyc não estava instalado ele tentou reimplementar o Istanbul em bash
      No fim precisei dizer “só instala o nyc”
    • O fato de isso ainda não ter sido lançado sugere que a própria Anthropic acha que o modelo ainda não está pronto
      Mesmo assim, esse tipo de experimento deve ajudar a expandir os limites do modelo
      Talvez não agora, mas quem sabe em 2026 isso seja viável
  • Seria bom se no HN houvesse uma votação periódica para mapear a popularidade dos agentes de programação com IA
    Como um TIOBE Index por linguagem, seria interessante ver a tendência de quais modelos estão ganhando popularidade

    • É só escolher um de que você goste e usar
      Disputa de ranking no fim é só mais um ciclo de hype girando
    • Acabei de começar uma pesquisa parecida. Participação é bem-vinda → agentic-coding-survey.pages.dev
    • Não é opinião da comunidade, mas eu consulto bastante o leaderboard do lmarena
      Achei interessante o MiniMax 2.1 estar acima da maioria dos GPTs
      No openrouter.ai também dá para ter uma noção da taxa de processamento e do custo do modelo
    • Eu acompanho as novidades pela newsletter do Zvi Mowshowitz
      Graças a isso, passei a usar o Opus 4.5 como principal uma semana após o lançamento
    • Minha skill de agente está entre as 10 primeiras no diretório skills.sh
      Cerca de 80% da base de usuários dela está no Claude Code, e 75% usa ambiente darwin-arm64
  • O Claude gera código demais, o que torna a revisão difícil
    Alguns dizem “se os testes passam, está bom”, mas em projetos de manutenção de longo prazo isso dá insegurança
    Queria saber como foi a experiência de quem já tentou geração de código no estilo YOLO em projetos operados no longo prazo

    • Em ambientes profissionais reais, lidar com um agente por vez já é suficiente
      A qualidade do código ainda é baixa, e ele erra bastante na depuração
      Ainda assim, é útil para busca, compreensão e expansão de ideias
      Em projetos experimentais pessoais, uma abordagem YOLO pode funcionar bem
    • Trabalho na Graphite/Cursor, mas se você fizer o CC gerenciar as mudanças em formato de stack e acoplar um agente de revisão automática, fica mais fácil entender até mudanças grandes
      Assim, você automatiza a geração de código sem perder a compreensão do sistema
    • Quando o Claude Code escreve código, eu faço ele revisar o último commit com uma skill que criei chamada “codex-review”
      Peço ao Codex para sugerir pontos de revisão e verifico a precisão disso na revisão real
    • Ainda é cedo demais para enxergar os resultados, mas no fim deste ano talvez a gente veja que destino terão projetos que parecem castelos construídos sobre areia
  • Havia a frase “agora você não fala com um programador de IA, mas com um líder de equipe”,
    e o engraçado é que até esse tweet parecia ter sido escrito por IA

    • Sim, esse tipo de expressão retórica se repete demais em textos de IA
  • Em 2026, orquestradores de agentes provavelmente serão a grande tendência
    Usar diretamente termos tradicionais de software, como líder de equipe e membro do time, deve melhorar compreensão e aceitação

    • Concordo. Conceitos complicados como Gas Town são só gambiarras para corrigir comportamentos anômalos do modelo
      Se a Anthropic conseguir orquestrar seus próprios modelos, essas camadas vão se tornar desnecessárias
      No fim, o essencial é mensageria e gestão de tarefas
    • Mas eu acho que conceitos como Polecats ajudam a evitar antropomorfização excessiva
  • Achei engraçada a frase “para o líder da equipe e o time inteiro, deixem este botão vermelho”

    • “Engenheiro principal! Precisamos de arquitetura! Time de marketing, publi com celebridade! Time de produto, roadmap! Time de ML, reflitam os dados de treinamento! Time financeiro, calculem o ROI! Time de operações, cobertura 24/7!”
      E no fim a conclusão foi “ótimo, agora deixem o botão vermelho!”. Sátira perfeita
    • Mesmo que o Claude consiga fazer isso só com prompt, nós não vamos aceitar que isso basta
      Este vídeo passa bem essa sensação
    • O prompt de sistema padrão está configurado para julgar bem quando deve usar o modo swarm
      Se você der instruções adicionais no CLAUDE.md, dá para ajustar para que ele não use o modo swarm em tarefas triviais
  • Na versão 2.1.9 recente, mudou completamente a forma como o loop principal orquestra os subagentes
    Aparecem logs como “o agente FTSChunkManager ainda está em execução, mas está progredindo, então vamos esperar”, junto com stack trace e saída em JSON

  • Vi esse comportamento diretamente no app desktop do Claude Code
    Sob uma tarefa mestre, vários agentes líderes de workers exploram o codebase, escrevem relatórios e listas de TODO
    Outro sistema consolida isso para montar o esquema mestre e o plano
    Eu crio chats separados de devops, frontend, arquitetura e segurança; quando cada chat termina, ele deixa logs e troca atualizações com os outros
    Se eu fizer conectar por SSH a um droplet para usar o terminal, o Claude repete sozinho o ciclo de build, correção, teste e validação
    Assim concluí este projeto em 3 dias

    • Na verdade isso é só a funcionalidade básica de iniciar vários agentes de exploração paralela e juntar os resultados
    • É muito parecido com o funcionamento do oh-my-opencode