32 pontos por davespark 2026-03-10 | Ainda não há comentários. | Compartilhar no WhatsApp

A LangChain revelou um conjunto de "Skills" que melhora drasticamente o desempenho de agentes de programação.

Em especial, quando modelos como o Claude Code executam tarefas relacionadas a LangChain/LangGraph/LangSmith, a taxa de sucesso que ficava em torno de 25% sem Skills subiu para 95% com Skills, e nas tarefas ligadas ao LangSmith houve uma grande melhora, de 17% para 92%.

Tipos de Skills divulgadas

  • 11 Skills de LangChain: loop básico de agente, Human-in-the-Loop do LangGraph, Deep Agents etc.
  • 3 Skills de LangSmith: tracing, criação de datasets, avaliação de agentes
    → O LangSmith CLI também foi lançado junto (permite consultar traces, gerenciar datasets e executar experimentos pelo terminal)

Resultados da avaliação e lições

  • Ao usar Skills, a taxa de conclusão do Claude Code foi de 82% vs 9% sem uso
  • Precisão na chamada de Skills: quando há muitas demais (20), os erros aumentam ↑ → ao reduzir para cerca de 12, a precisão aumenta ↑
  • Para maximizar a eficácia, é preciso orientar claramente em AGENTS.md ou CLAUDE.md “quando usar qual Skill”

Perspectivas futuras

  • Com as Skills do LangSmith, agentes podem operar um loop de autoaperfeiçoamento de analisar seus próprios logs de execução → resumir problemas → gerar automaticamente dataset de teste + avaliador.
  • Isso sugere que, no futuro, ciclos baseados em terminal em que “agentes melhoram agentes” podem se tornar predominantes.

Ainda não há comentários.

Ainda não há comentários.