Com base nas falhas que enfrentei na prática ao criar agentes baseados em LLM,
organizei em um documento a arquitetura de um sistema que já funciona e os motivos por trás desse design.
Este documento não é apenas uma nota de ideias;
ele explica uma estrutura que busca resolver, por meio de implementação real, problemas como:
por que o agente diz “done”, mas na prática nada acontece,
e por que o resultado da execução deve ser validado não pelo raciocínio do modelo, mas pelo estado do mundo externo.
O ponto central é:
- o agente não altera o estado diretamente, apenas propõe intents
- as transições de estado são verificadas por cálculo determinístico
- se algo está “concluído” é sempre julgado pelo estado do mundo.
Já existe uma demo funcionando com essa estrutura (TaskFlow),
e a documentação atualmente publicada explicita
o modelo de world / state / execution que tornou esse sistema possível.
Ainda não está na fase 1.0,
mas a documentação foi organizada sobre um sistema em um nível que já permite execução, validação e debugging reais.
Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev
2 comentários
É o texto explicativo de Show GN: 자연어 명령을 Intent → Effect → Snapshot으로 실행하는 AI Task 데모, que você publicou no ShowGN.
Este é um texto que explica a arquitetura de como o produto é realmente composto.
Aproveitando que estabilizei na versão 1.0 e organizei a documentação, resolvi também organizar este texto.