10 pontos por GN⁺ 2026-03-17 | Ainda não há comentários. | Compartilhar no WhatsApp
  • Ao colaborar por longos períodos com LLMs como Claude ou Codex, o acúmulo de fadiga faz a produtividade despencar rapidamente
  • A queda na qualidade do prompt causada pelo cansaço piora a qualidade dos resultados, e quanto mais o modelo é interrompido ou corrigido no meio do processo, pior tende a ficar seu desempenho
  • Loops de feedback lentos e contexto excessivamente grande dificultam experimentos repetidos e reduzem a eficiência do trabalho
  • A abordagem mais eficaz é manter o prazer de escrever prompts e uma noção clara de objetivo, além de definir o próprio loop lento como problema e melhorá-lo
  • O ponto central no uso de LLMs é feedback rápido e definição clara de critérios de sucesso; com isso, é possível reduzir o tempo de depuração e obter resultados mais inteligentes

Fadiga e velocidade lenta de experimentação

  • Quando a fadiga mental se acumula, a qualidade do prompt cai e, como consequência, a qualidade das respostas do LLM também piora
    • Em estado de cansaço, você envia prompts deixando de fora contextos essenciais e, ao repetir correções e interrupções depois, os resultados se deterioram
    • No Claude Code ou no Codex, esse tipo de “intervenção no meio do processo” quebra a consistência e leva a resultados piores
  • A lentidão do loop de feedback é apontada como problema
    • Em tarefas demoradas, como parsing de arquivos grandes, cada nova execução leva tempo e alonga o ciclo de experimentação
    • Quando o contexto chega perto da saturação, o modelo pode “ficar mais burro” ou deixar de refletir adequadamente os experimentos mais recentes

Caminho para uma colaboração eficiente com IA

  • É preciso evitar o círculo vicioso causado por prompts ruins (doom-loop psychosis)
    • Quando escrever prompts deixa de ser prazeroso ou você passa a repetir entradas curtas e desleixadas, é hora de descansar
    • Esperar que a IA preencha lacunas sem antes pensar suficientemente sobre o problema é uma armadilha perigosa
  • Prompts com objetivos claros e confiança são a chave para o sucesso
    • Prompts escritos imaginando de forma concreta o resultado desejado tendem a produzir respostas de alta qualidade
    • Já quando são escritos com incerteza ou pressa, o resultado costuma ser insatisfatório

Definir o loop de feedback lento como o problema

  • É preciso estabelecer a velocidade do loop de feedback como meta de melhoria
    • Por exemplo, ao lidar com um problema de parsing, deve-se explicitar a meta de reduzir o tempo do loop para menos de 5 minutos e pedir que casos de falha sejam reproduzidos rapidamente
    • Isso é uma abordagem semelhante a desenvolvimento orientado a testes (TDD) e acelera a velocidade de experimentação iterativa
  • Apresentar critérios de sucesso claros maximiza a eficiência do LLM
    • Se você der condições específicas como “reproduza o caso de falha em até 5 minutos”, o LLM otimiza o caminho do código e elimina partes desnecessárias
    • Ao garantir um loop de feedback rápido dessa forma, o consumo de contexto diminui e o modelo passa a operar de maneira mais “inteligente”

Conclusão

  • A fadiga ao trabalhar com LLMs muitas vezes pode ser não um problema técnico, mas um “problema de habilidade” (skill issue)
  • Fadiga cognitiva e terceirização cognitiva (cognitive outsourcing) são armadilhas que reduzem a produtividade
  • O ideal é continuar apenas quando o processo de escrever prompts for prazeroso e houver confiança de mais de 95% na satisfação com o resultado
  • Se você sentir lentidão no progresso e sobrecarga de contexto, deve tratar isso como uma tarefa a resolver e, junto com o LLM, projetar uma estrutura de iteração mais rápida

Ainda não há comentários.

Ainda não há comentários.