- Durante o andamento dos projetos, aparece repetidamente um processo de evolução de uma simples escrita de scripts para a construção de agentes de IA autônomos
- Ao conceder acesso a ferramentas para os utilitários em desenvolvimento, modelos conversacionais simples se transformam em agentes capazes de planejar, executar e iterar
- Lógicas baseadas em classificadores ou condicionais acabam sendo substituídas por estruturas de agentes, e uma estrutura simples centrada em chamadas de ferramentas escolhidas pelo modelo é mais flexível e poderosa
- O papel humano migra de Human-in-the-Loop para Human-on-the-Loop, e definir objetivos e guardrails passa a ser a tarefa central
- Mais importante do que a complexidade do código é a gestão de confiança e julgamento, e os agentes passam a se estabelecer como sistemas que crescem junto com os desenvolvedores
Convergência de scripts simples para agentes
- A maioria dos projetos de IA conduzidos ao longo de 2025 acabou, no fim, convergindo para a forma de agentes
- Scripts simples com estrutura de entrada·processamento·saída evoluem para agentes ao adicionar loops de repetição, conjuntos de ferramentas e parsing de JSON
- Definição de agente, segundo o autor: um modelo executado em loop com acesso a ferramentas
- Ou seja, se tiver tempo suficiente, todo projeto de IA converge para um agente
A atração gravitacional rumo à autonomia
- Indo além da automação simples, o software avança para uma etapa em que julga e executa por conta própria, como um “estagiário digital”
- Gemini Scribe começou como um simples plugin de chat para Obsidian, mas, ao receber acesso à ferramenta
read_file, passou a gerenciar contexto e executar tarefas por conta própria
- O usuário já não gerencia manualmente a entrada do modelo e apenas fornece comandos em nível de instrução, como “leia a ata da reunião e faça um resumo”
- Essa mudança representa uma transição de conversa para delegação, evoluindo para uma estrutura em que o agente cuida de planejar, executar e iterar
De script a sudoers
- Também no desenvolvimento do Gemini CLI, à medida que o modelo passou a usar uma ferramenta de execução de comandos, ele deixou de ser um simples gerador de código e se expandiu para um executor autônomo
- O modelo monta um loop no qual executa testes, detecta falhas, faz correções por conta própria e roda tudo novamente
- Nesse processo, questões de segurança e confiança ganharam destaque, tornando necessário um sistema de políticas de separação de permissões, como no arquivo
sudoers
- Scripts simples não precisam de um mecanismo de políticas, mas agentes exigem guardrails para evitar erros de julgamento
O agente que queria ser classificador
- No projeto Podcast RAG, foi criado um classificador de IA para decidir o alvo da busca conforme a consulta do usuário, mas suas limitações ficaram evidentes
- A lógica de classificação não refletia totalmente a intenção do usuário e restringia em código decisões que o modelo já conseguia tomar bem
- A solução foi remover o classificador e fornecer ao agente as duas ferramentas:
search_descriptions e search_episodes
- O agente escolhe e usa as ferramentas em paralelo conforme a situação, realizando buscas mais flexíveis
- No Gemini Scribe, também foi removida uma lógica complexa de previsão de contexto e simplificada para uma estrutura de chamada de ferramentas que lê arquivos quando necessário
- Fica a referência de desenvolvimento: “se você está decidindo com if/else o que a IA deve fazer, então já está construindo um agente”
A transição para Human-on-the-Loop
- O papel humano deixa de ser uma estrutura em que todas as etapas são aprovadas e passa a ser o de um supervisor que define apenas objetivos e limites
- Como o agente executa tarefas sem intervenção humana contínua, torna-se essencial definir claramente objetivos, limites e tratamento de exceções
- Sem guardrails adequados, há o risco de o agente ficar esperando entrada ou cair em caminhos improdutivos
- O ser humano deixa de ser executor e passa a atuar como supervisor e definidor de fronteiras, gerenciando a direção do sistema
Aceitando a complexidade
- Construir agentes não é tão difícil quanto parece e, na verdade, pode até simplificar o sistema ao remover bifurcações condicionais e lógica de tratamento de exceções
- Como o modelo julga conforme a situação, a lógica de previsão prévia se torna desnecessária
- A verdadeira complexidade não está no código, mas na delegação de confiança e julgamento
- Desenvolvedores devem focar menos em erros de sintaxe e mais em projetar formas de evitar erros de julgamento
- Diferentemente de scripts fixos, agentes são sistemas que evoluem conforme os pedidos do usuário e buscam maneiras melhores de agir
- Quando você começa a querer adicionar definições de ferramentas a um script simples, isso já significa que entrou na etapa de construção de um agente
Ainda não há comentários.