LangChain revela Skills, a forma que elevou a taxa de sucesso do Claude Code de 25% para 95%
(aisparkup.com)A LangChain revelou um conjunto de "Skills" que melhora drasticamente o desempenho de agentes de programação.
Em especial, quando modelos como o Claude Code executam tarefas relacionadas a LangChain/LangGraph/LangSmith, a taxa de sucesso que ficava em torno de 25% sem Skills subiu para 95% com Skills, e nas tarefas ligadas ao LangSmith houve uma grande melhora, de 17% para 92%.
Tipos de Skills divulgadas
- 11 Skills de LangChain: loop básico de agente, Human-in-the-Loop do LangGraph, Deep Agents etc.
- 3 Skills de LangSmith: tracing, criação de datasets, avaliação de agentes
→ O LangSmith CLI também foi lançado junto (permite consultar traces, gerenciar datasets e executar experimentos pelo terminal)
Resultados da avaliação e lições
- Ao usar Skills, a taxa de conclusão do Claude Code foi de 82% vs 9% sem uso
- Precisão na chamada de Skills: quando há muitas demais (20), os erros aumentam ↑ → ao reduzir para cerca de 12, a precisão aumenta ↑
- Para maximizar a eficácia, é preciso orientar claramente em
AGENTS.mdouCLAUDE.md“quando usar qual Skill”
Perspectivas futuras
- Com as Skills do LangSmith, agentes podem operar um loop de autoaperfeiçoamento de analisar seus próprios logs de execução → resumir problemas → gerar automaticamente dataset de teste + avaliador.
- Isso sugere que, no futuro, ciclos baseados em terminal em que “agentes melhoram agentes” podem se tornar predominantes.
Ainda não há comentários.