- Ao colaborar por longos períodos com LLMs como Claude ou Codex, o acúmulo de fadiga faz a produtividade despencar rapidamente
- A queda na qualidade do prompt causada pelo cansaço piora a qualidade dos resultados, e quanto mais o modelo é interrompido ou corrigido no meio do processo, pior tende a ficar seu desempenho
- Loops de feedback lentos e contexto excessivamente grande dificultam experimentos repetidos e reduzem a eficiência do trabalho
- A abordagem mais eficaz é manter o prazer de escrever prompts e uma noção clara de objetivo, além de definir o próprio loop lento como problema e melhorá-lo
- O ponto central no uso de LLMs é feedback rápido e definição clara de critérios de sucesso; com isso, é possível reduzir o tempo de depuração e obter resultados mais inteligentes
Fadiga e velocidade lenta de experimentação
- Quando a fadiga mental se acumula, a qualidade do prompt cai e, como consequência, a qualidade das respostas do LLM também piora
- Em estado de cansaço, você envia prompts deixando de fora contextos essenciais e, ao repetir correções e interrupções depois, os resultados se deterioram
- No Claude Code ou no Codex, esse tipo de “intervenção no meio do processo” quebra a consistência e leva a resultados piores
- A lentidão do loop de feedback é apontada como problema
- Em tarefas demoradas, como parsing de arquivos grandes, cada nova execução leva tempo e alonga o ciclo de experimentação
- Quando o contexto chega perto da saturação, o modelo pode “ficar mais burro” ou deixar de refletir adequadamente os experimentos mais recentes
Caminho para uma colaboração eficiente com IA
- É preciso evitar o círculo vicioso causado por prompts ruins (
doom-loop psychosis)
- Quando escrever prompts deixa de ser prazeroso ou você passa a repetir entradas curtas e desleixadas, é hora de descansar
- Esperar que a IA preencha lacunas sem antes pensar suficientemente sobre o problema é uma armadilha perigosa
- Prompts com objetivos claros e confiança são a chave para o sucesso
- Prompts escritos imaginando de forma concreta o resultado desejado tendem a produzir respostas de alta qualidade
- Já quando são escritos com incerteza ou pressa, o resultado costuma ser insatisfatório
Definir o loop de feedback lento como o problema
- É preciso estabelecer a velocidade do loop de feedback como meta de melhoria
- Por exemplo, ao lidar com um problema de parsing, deve-se explicitar a meta de reduzir o tempo do loop para menos de 5 minutos e pedir que casos de falha sejam reproduzidos rapidamente
- Isso é uma abordagem semelhante a desenvolvimento orientado a testes (TDD) e acelera a velocidade de experimentação iterativa
- Apresentar critérios de sucesso claros maximiza a eficiência do LLM
- Se você der condições específicas como “reproduza o caso de falha em até 5 minutos”, o LLM otimiza o caminho do código e elimina partes desnecessárias
- Ao garantir um loop de feedback rápido dessa forma, o consumo de contexto diminui e o modelo passa a operar de maneira mais “inteligente”
Conclusão
- A fadiga ao trabalhar com LLMs muitas vezes pode ser não um problema técnico, mas um “problema de habilidade” (
skill issue)
- Fadiga cognitiva e terceirização cognitiva (
cognitive outsourcing) são armadilhas que reduzem a produtividade
- O ideal é continuar apenas quando o processo de escrever prompts for prazeroso e houver confiança de mais de 95% na satisfação com o resultado
- Se você sentir lentidão no progresso e sobrecarga de contexto, deve tratar isso como uma tarefa a resolver e, junto com o LLM, projetar uma estrutura de iteração mais rápida
Ainda não há comentários.