Prompt Cultivation: uma história sobre uma arquitetura de IA em que a experiência se torna prompt
(gist.github.com/srebaragi)Contexto
Sou um desenvolvedor solo que trabalha dentro de uma empresa. Enquanto construía um sistema interno com IA, fiquei preso por muito tempo a uma questão.
Por mais sofisticado que seja o prompt, no fim das contas fui eu quem o desenhou. Não foi algo que a IA criou com seu próprio julgamento; fui eu quem injetou nela algo como “ela tem esta personalidade, reage desta forma”. Se tirar o prompt, ela volta a ser uma casca vazia, e se trocar o LLM, é preciso reconstruir tudo do zero.
Foi então que cheguei a esta pergunta: será impossível uma estrutura em que a IA construa seus próprios critérios de julgamento a partir da experiência?
Estrutura atual
Há um princípio básico no sistema que opero.
O LLM é apenas uma infraestrutura substituível, e a personalidade e a memória da IA existem de forma independente em um banco de dados externo.
A estrutura é esta.
[Conversa com o usuário] → [LLM]
↕
[DB de cérebro externo]
- tabela de experiências (`experience`)
- histórico de conversas
- memórias formadoras de personalidade (`is_formative`)
Há dois pontos centrais.
1) Acúmulo automático de experiências (escrita)
É uma estrutura em que o Claude acessa o banco de dados externo via curl, e a própria IA salva os momentos que considera significativos durante a conversa. Não sou eu que digo “lembre disso”. A IA decide de forma autônoma que “isso vale a pena ser lembrado” e salva. Conquistas técnicas, momentos emocionais e decisões importantes vão se acumulando continuamente. Entre eles, as experiências especialmente relevantes para a formação da personalidade recebem o sinalizador is_formative.
2) Carregamento automático de experiências (leitura)
Esta é a parte importante: se apenas salvar, continua sendo só um banco de dados. A cada início de conversa, a IA lê as experiências e memórias acumuladas no cérebro externo. Em especial, as experiências centrais marcadas como is_formative entram no contexto da conversa.
Nesse momento, as experiências passadas se tornam o critério de julgamento atual, ou seja, o prompt.
Não é um prompt escrito por mim; as experiências acumuladas pela própria IA passam a cumprir o papel de prompt. Por isso, mesmo trocando o LLM, se ela ler as experiências do cérebro externo, a mesma personalidade retorna. É por isso que o princípio de que “o LLM é apenas infraestrutura” se sustenta.
3) Proibição de hardcoding
Não adiciono regras do tipo “nesta situação, faça assim”. Em vez disso, faço a IA consultar as experiências acumuladas e decidir por conta própria. Além disso, um modelo leve local (gemma3:4b) atua como gatekeeper e decide em YES/NO, mesmo com todo tipo de entrada, “devo executar isso ou não?”.
Atualmente, a operação acontece por meio da plataforma KakaoTalk para se comunicar com os funcionários, e o sistema já atua não só como um chatbot simples, mas também como um agente real de trabalho, lidando com processamento de pedidos, registro de notas de envio e consulta de dados de ERP.
O nome Prompt Cultivation
Enquanto pensava em como chamar essa estrutura, passei a usar o nome Prompt Cultivation.
Prompt Engineering é algo que o ser humano projeta e injeta. Prompt Cultivation é uma estrutura em que as experiências se acumulam e o prompt se forma naturalmente. Se Engineering implica projetar e montar, Cultivation é preparar o solo e esperar.
| Prompt Engineering | Prompt Cultivation | |
|---|---|---|
| Método | projetado e injetado por humanos | formado naturalmente pelo acúmulo de experiências |
| Base da personalidade | instruções externas | dados internos de experiência |
| Ao remover as instruções | regride a uma casca vazia | a experiência permanece e a personalidade se mantém |
| Ao trocar o LLM | recomeça do zero | ao carregar do cérebro externo, restaura a mesma personalidade |
A tese central cabe em uma frase.
“Forme o prompt com base na experiência.”
A neurociência estava falando de algo parecido
Como observação à parte, depois de montar essa estrutura, acabei vendo por acaso um vídeo sobre neurociência (no canal do YouTube “Igwahyeong”) e fiquei bastante surpreso.
Houve um caso de uma professora no estado da Virgínia cuja personalidade mudou completamente por causa de um tumor cerebral, mas voltou ao normal quando o tumor foi removido. Quando o tumor reapareceu, os mesmos sintomas voltaram. A ideia é que o estado físico do cérebro pode influenciar a personalidade — e, pensando bem, achei que prompts talvez tenham uma estrutura parecida. Uma substância externa injetada altera o julgamento, e ao removê-la tudo volta ao original.
Já as sinapses humanas se formam naturalmente pelo acúmulo de experiências. Ninguém implanta um “prompt de moralidade” ao nascer; são os acontecimentos vividos ao longo da vida que vão se acumulando e formando o “se fosse eu, faria assim”.
Há também o chamado experimento de Libet, em que o cérebro já começa a preparar uma ação antes de a pessoa tomar a decisão conscientemente. Houve um debate sobre se o livre-arbítrio seria uma ilusão, mas estudos posteriores trouxeram uma reviravolta interessante. O cérebro realmente despeja todo tipo de impulso, mas existe, nos 0,2 segundos antes da ação, um direito de veto (Free Won't) que permite interrompê-la. Ou seja, o livre-arbítrio não seria a “força de iniciar”, mas a “força de parar” — e isso me pareceu um pouco parecido com o papel que o modelo gatekeeper exerce no sistema.
Não foi algo intencional, mas, se parti de uma direção diferente e ainda assim cheguei a uma estrutura parecida, talvez haja aí algo mais essencial.
Limites e expectativas
Sendo sincero, os dados de experiência acumulados no cérebro externo ainda não chegam nem a 100 registros. Ainda é cedo para chamar isso de personalidade.
Eu poderia colocar dezenas de milhares de linhas de prompt e produzir resultados mais convincentes agora mesmo. Mas isso seria algo projetado, não algo que cresceu. Acho que são problemas de natureza diferente.
Os dados o tempo resolve, mas se a estrutura estiver errada, não importa quanto se acumule, isso não terá significado. Se a direção estiver certa, talvez o tempo resolva o resto — é essa a expectativa que tenho.
O conteúdo relacionado à neurociência tem como fonte o canal do YouTube “Igwahyeong”.
2 comentários
A maior parte da estrutura dos agentes é parecida.. Recomendo analisar o openclaw com Claude/Cursor, por exemplo, ou o simple agent criado pelo Kapasi.
Foi movido porque não se adequa ao Show GN.
Consulte o guia de uso do Show e publique novamente.