142 pontos por davespark 2026-02-13 | 13 comentários | Compartilhar no WhatsApp

Um arquivo Markdown de apenas 65 linhas (CLAUDE.md), que tenta resolver os problemas de coding com LLM apontados por Andrej Karpathy, explodiu em popularidade no GitHub e causou sensação entre usuários do Claude Code com a ideia de que “basta adicionar este arquivo e a IA fica muito mais inteligente”.

A popularidade explosiva do arquivo

  • O arquivo CLAUDE.md no repositório GitHub forrestchang/andrej-karpathy-skills
  • Em apenas um dia, recebeu mais de 400 estrelas → chegando perto de 4.000 no total
  • Também foi portado para extensões do VS Code / Cursor, facilitando a adoção

Conteúdo do arquivo: 4 princípios centrais (inspirados nas críticas de Karpathy ao coding com LLM)

  • Think Before Coding (pense antes de programar): explicitar suposições, perguntar quando houver incerteza, parar em caso de confusão
  • Simplicity First (simplicidade em primeiro lugar): não adicionar funcionalidades, abstrações ou tratamento de erros que não foram solicitados
  • Surgical Changes (mudanças cirúrgicas): alterar apenas a parte pedida e não mexer no restante
  • Goal-Driven Execution (execução guiada por objetivos): converter pedidos vagos como “adicionar funcionalidade” em metas concretas, como “fazer os testes passarem”

→ Relatos de usuários dizem que, ao injetar esses princípios no prompt, o Claude passa a cometer menos excessos criativos, fazer menos suposições estranhas e menos refatorações desnecessárias, produzindo código mais estável e previsível.

A reação de Michiel Beijen (autor do post original)

  • Mesmo sem usar Claude Code, ele avaliou que o arquivo era bom
  • Criou por conta própria versões para Cursor + extensão do VS Code e as publicou
  • Depois de testar, disse algo como “parece funcionar, mas também talvez não...” (é difícil ter certeza por causa da natureza não determinística)
  • Ainda assim, reconheceu que muitas pessoas dizem perceber diferença

O ponto que mais chocou as pessoas

  • Grandes empresas de LLM treinaram esses modelos por anos com investimentos de trilhões de wons
  • E, ainda assim, apenas 65 linhas de texto parecem elevar visivelmente a qualidade
  • Isso vem sendo interpretado como um caso extremo de que “o prompt pode vencer o próprio modelo”
  • E de que esse conjunto simples de diretrizes corrige surpreendentemente bem problemas crônicos de LLM apontados por Karpathy (excesso de suposições, ignorar confusão, não apresentar trade-offs etc.)

Conclusão

  • Não dá para ter 100% de certeza de que o efeito é real, mas muitos desenvolvedores sentem que “claramente mudou”
  • Um caso simbólico que mostra o poder de prompt hacking / context engineering na era dos LLMs

https://aisparkup.com/posts/9225

13 comentários

 
centell 2026-02-14

Como eu deveria dizer... é simplesmente o jeito como os desenvolvedores sempre trabalharam.

 
orange 2026-02-14

Não dá para ter 100% de certeza se realmente funciona, mas muitos desenvolvedores sentem que “com certeza mudou”.

kkkk

 
penekhun 2026-02-19

Acredita...!

 
cshj55 2026-02-14

Quando usei de verdade, foi tipo “parece que funciona e ao mesmo tempo parece que não…” (como não é determinístico, é difícil ter certeza)
kkkkkkkkkkkk

 
roxie 2026-02-25

kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkk

 
jw8880 2026-02-14

Isso que é vibe..! kkk

 
galadbran 2026-02-14

A confiança vence!

 
mammal 2026-02-13

No fim das contas, é engenharia de prompt de novo.

 
onestone 2026-02-13

Engenharia de torompt

 
alfenmage 2026-02-14

Prompt também exige boa escrita. Uma descoberta que pode ajudar desenvolvedores com pouca habilidade de escrita (incluindo vibe coders). Só para constar, tirei nota máxima em Coreano no CSAT.

 
cshj55 2026-02-15

Até o comentário com "aliás, tirei nota máxima em coreano no CSAT" está perfeito

 
cshj55 2026-02-14

No fim, a resposta certa era o prompt mesmo — lá vai de novo a suposta onipotência dos AGENTS

 
kaydash 2026-02-14

Que bom, que bom