Resumo
- Relato de experimento (Zero-context, N=5) mostrando que, após refatorar a estrutura do código (padrões Strategy e Factory, separação de arquivos, organização do
.cursorrules) com um prompt de uma linha, e depois executar o mesmo prompt de adição de funcionalidade, o uso de tokens de IA caiu significativamente. Os prompts e o código-fonte usados no experimento foram publicados, permitindo reprodução.
Dados principais
-
Claude-4 Sonnet: média de 390.159 → 242.265 tokens (−37,91%)
-
GPT-5: média de 315.839 → 233.634 tokens (−26,03%)
-
Critério: Total Tokens exibido pelo Cursor. Comparações absolutas entre modelos não são significativas (diferenças de contabilização por modelo).
Configuração (resumo)
-
IDE Cursor 1.6.6, modelos GPT-5 / Claude-4 Sonnet
-
Todos os prompts em Zero-context, com reinicialização completa do editor a cada rodada
-
Critério de sucesso: contabilizado como sucesso quando os requisitos eram implementados com um único prompt
Por que isso importa
-
“Boa estrutura de código” não só melhora a leitura para humanos, como também afeta tokens, custo e tempo para a IA, com evidência quantitativa
-
A divulgação dos prompts e do repositório garante reprodutibilidade (podendo ser aplicada diretamente no trabalho e em experimentos futuros)
Opinião pessoal
- Como usuário do Cursor, considero que isso propõe uma excelente metodologia, oferecendo uma abordagem essencial para economizar custos.
- Como o próprio texto menciona, a amostragem limitada é um ponto um pouco decepcionante.
Ainda não há comentários.