- À medida que os desenvolvedores usam amplamente ferramentas de programação com IA, a produtividade aumentou, mas surgiram custos cognitivos e organizacionais invisíveis
- Das ferramentas assistivas iniciais como Copilot e Cursor, houve evolução recente para agentes autônomos, mudando para uma estrutura em que humanos ajudam a IA
- Porém, o uso de delegação total causa dívida cognitiva (cognitive debt) e queda na capacidade de depuração, enfraquecendo a resolução de problemas e a compreensão de código dos desenvolvedores
- Uma estrutura em que a IA escreve o código e os humanos apenas o revisam leva ao colapso do caminho de formação de sêniors e à perda do estado de flow criativo, corroendo no longo prazo a capacidade técnica da organização
- O uso de IA é essencial, mas é preciso definir por conta própria um ‘limite adequado de uso’ e ajustar a adoção de forma a manter a compreensão e o aprendizado humanos
A evolução da adoção de IA na programação
- Ferramentas como Copilot e Cursor, que surgiram em 2022~2023, indexavam a base de código para oferecer autocompletar e chat com base em contexto
- Isso tornou desnecessário recorrer ao Google ou ao StackOverflow, e o ambiente de IDE com IA embutida se disseminou
- Depois surgiram workflows baseados em agentes, marcando a transição de assistência ao humano para desenvolvimento liderado por IA
- No entanto, agentes apresentam problemas de confiabilidade, como loops, alucinações e erros de dependência
- Após o Opus 4.5, o nível de automação aumentou, e algumas empresas já mostram casos em que o desenvolvedor não escreve código diretamente
- Ex.: o co-CEO do Spotify mencionou que engenheiros dão comandos ao Claude no Slack para alterar e implantar funcionalidades
Dívida cognitiva e deterioração técnica
- São citados os conceitos de ‘Digital Dementia’, de Manfred Spitzer, e de ‘Cognitive Debt’, de Margaret-Anne Storey
- Quando o pensamento repetitivo é delegado à IA, os caminhos cerebrais enfraquecem e a compreensão de código diminui
- Estudo de Shen·Tamkin (2026): entre 52 desenvolvedores, o grupo com assistência de IA teve pontuação 17% menor em compreensão conceitual, depuração e leitura de código
- A queda na capacidade de depuração foi especialmente marcante, e apenas 1 hora de uso passivo de IA já gerou erosão técnica mensurável
- Quando a IA resolve os desafios no lugar da pessoa, isso induz um estado de ‘dark flow’ em vez de ‘flow real’, reforçando a dependência sem aprendizado
O paradoxo da revisão de código e o colapso dos sêniors
- Quando a IA escreve o código e o humano apenas revisa, surge o paradoxo de que desaparece a fonte da própria capacidade de revisão
- Desenvolvedores totalmente dependentes da IA trabalham rápido, mas ficam nas piores posições de avaliação
- Storey propõe que “humanos devem compreender completamente as mudanças geradas por IA antes do deploy”
- A IA entrega a iniciantes resultados de nível sênior, mas isso não passa de cópia sem compreensão
- Sêniors perdem profundidade por não escreverem código diretamente, e juniores não crescem por não passarem por tentativa e erro
- Como resultado, o pipeline de formação de sêniors entra em colapso
Equívocos da liderança e efeitos colaterais organizacionais
- Lideranças de Microsoft, Anthropic e Google preveem que a IA substituirá engenheiros em poucos meses
- O Google relatou que, no fim de 2024, 50% do novo código foi gerado por IA
- Porém, esses números seriam exagerados com objetivo de vender IA e sustentar o preço das ações, não sendo aplicáveis à maioria das organizações
- Algumas empresas medem o uso de IA como KPI e o impõem aos desenvolvedores
- Caso do Reddit: desenvolvedores manipularam o uso de IA com comandos sem sentido
- Como resultado, entra em ação a lei de Goodhart, e no lugar de ganhos de produtividade resta apenas conformidade formal
O custo humano e a perda da criatividade
- Escrever código oferece o prazer da imersão e da criação, mas revisar código gerado por IA provoca fadiga mental
- Quando a recompensa dopaminérgica da criação desaparece, o burnout acelera
- O desenvolvimento degenera em controle de qualidade (QA), e a satisfação criativa desaparece
- A situação é comparada a um cenário em que a IA faz toda a arte e os humanos ficam “apenas dobrando a roupa lavada”
O limite adequado de uso de IA
- A IA é uma ferramenta poderosa, mas nem usar muito nem usar pouco é necessariamente bom
- O estudo de Shen·Tamkin mostra, entre 6 padrões de interação com IA, que:
- ‘delegação total’, ‘dependência gradual’ e ‘terceirização da depuração’ prejudicam o aprendizado
- ‘pedir explicações’, ‘fazer perguntas conceituais’ e ‘codificar de forma independente antes de conferir’ preservam o aprendizado
- O essencial é manter o engajamento cognitivo, e o importante não é apenas usar ou não usar, mas como usar
- Não usar IA de forma alguma faz perder eficiência em busca, boilerplate e exploração, enquanto usar em excesso prejudica compreensão, formação de sêniors, detecção de bugs e sensação de imersão
O declínio silencioso
- Nos indicadores, o número de PRs, de funcionalidades e o cycle time melhoram, mas
a habilidade técnica interna, a concentração e a capacidade de resolver problemas enfraquecem lentamente
- O desenvolvedor vira um “robô de manteiga” que apenas clica em aprovar sem entender a estrutura criada pela IA
- Simon Willison também comentou que, por não revisar recursos criados por IA em seu projeto,
“já não entende claramente o funcionamento interno”
- No fim, não é a ferramenta que se deteriora, mas o humano, e essa mudança nem é medida nem gerenciada
- A dependência de IA avança como um vício, com risco de levar a um declínio técnico silencioso, porém real
1 comentários
Comentários do Hacker News
Eu ainda considero escrever código com as próprias mãos e desenhar a estrutura na cabeça uma das partes prazerosas do meu trabalho
Até refatorações repetitivas ou irritantes são, para mim, um processo significativo
Esses momentos difíceis viram material de aprendizado que me leva a encontrar formas melhores da próxima vez
Isso permanece como uma esperança de que, algum dia, esse fluxo volte
Acredito que, algum dia, o valor de quem preservou a capacidade de escolher e julgar por conta própria será reconhecido de novo
Se o código é difícil de testar, então é preciso mudar as abstrações ou interfaces
Testes são a primeira reutilização do código; se é desconfortável nos testes, provavelmente também será desconfortável no uso real
Quanto mais o código é meu, mais fácil é visualizar mentalmente onde o problema pode surgir
Nenhum LLM consegue substituir essa intuição, por mais logs que você jogue nele
Mas me preocupo se isso não acaba eliminando a motivação para melhorar o ecossistema de front-end
Até tarefas que as pessoas querem delegar ao LLM me dão prazer de fazer pessoalmente
Fico triste ao ver empresas tirando aos poucos essas pequenas alegrias
Usei muito o Claude Code no último ano e, recentemente, senti uma mudança emocional entre colegas em relação ao uso de IA
Escrevi sobre os custos ocultos que surgem quando se usa IA em excesso e reuni dados de várias fontes
Ainda não há dados claros, mas muitos desenvolvedores parecem estar sentindo a mesma coisa
Mas a expressão “software é apenas uma ferramenta” sempre me soa estranha
Quando uma ferramenta pode substituir o pensamento, ainda dá para chamá-la de “ferramenta”?
Gostei da honestidade da expressão “vício em prompt”. Mas seria bom explorar também o lado do vício comportamental
Parece rápido e sob controle, mas aos poucos você vai perdendo o controle
A parte realmente difícil é descobrir “com que velocidade sustentável isso deve ser usado”
Eu também escrevi um post no blog sobre tema parecido,
abordando a perspectiva de como líderes podem ajudar a organização a encontrar um equilíbrio sustentável
Procurei artigos sobre como memória de trabalho (working memory) e sistema de recompensa afetam aprendizado e imersão
Por exemplo, este artigo da Nature diz que a memória de trabalho tem reatividade dopaminérgica
E este artigo da Scientific American afirma que escrever à mão ativa mais áreas do cérebro
No fim, a conclusão é que, em tarefas passivas com baixa recompensa, quase não há esse ganho cognitivo
Por isso, acho que o critério para usar IA deveria ser “o quão dolorosa e pouco recompensadora é essa tarefa”
Eu ainda escrevo o código diretamente e entendo completamente o resultado
Ganho de velocidade não me importa. O importante é esse senso de posse de que o código é meu
Desde antes eu poderia terceirizar isso, mas esse seria o caminho para me tornar alguém que só lê código
Eu e a maioria dos desenvolvedores ao meu redor sentimos essa pressão
Usar teclado não me faz esquecer a caligrafia, e comprar café não me faz esquecer como preparar café
No começo dos anos 80, aprendi a programar em assembly de LSI-11 e memorizei todos os opcodes em octal
Mas, quando aprendi FORTRAN 83, minha produtividade aumentou 10 vezes, e eu não me arrependo nem um pouco de ter deixado aquela habilidade atrofiar
Um dia, linguagens como C++ ou Java também vão se tornar habilidades desnecessárias
A capacidade de raciocínio lógico construída ao lidar com opcodes tornou mais fácil aprender linguagens depois
Esse tipo de pensamento com linguagens formais (formal language) é cognitivamente muito mais profundo do que escrever prompts para LLM
mas colaborar com IA é o processo de transmitir intenção em linguagem natural ambígua
A menos que você escreva pseudocódigo em inglês, a precisão cai
E, desta vez, isso vem acompanhado do medo de talvez ser substituído
Se você seguir três padrões de uso adequado de IA, dá para obter produtividade e aprendizado ao mesmo tempo
Mas, se seguir os antipadrões, isso leva à dependência da ferramenta, ansiedade, piora na capacidade de depuração e vício em recompensas imediatas
No fim, surge um ciclo vicioso de degradação cognitiva
Entrei recentemente em uma empresa centrada em IA, e o clima é de quase proibição do código manual
Pedi ao Claude para ler a documentação da API e criar um wrapper, e o resultado foi perfeito,
mas eu mesmo não entendi absolutamente nada da sensação ou estrutura da API
Esse estado de “consigo fazer muito, mas não sei nada” é desconfortável e vazio
Não se acumula memória reflexa. Por isso me identifiquei profundamente com o texto
Estou tocando vários side projects escritos por IA
Ainda assim, é uma sensação curiosa de “acho que é bom, mas não tenho certeza”
Em resumo, mesmo criando com IA, é preciso deixar seus próprios rastros para sentir realização
Comecei a programar há apenas 8 meses, e aprendi graças à IA
Mas, quando o Claude escreve código, eu entendo só 70%, e o resto simplesmente deixo passar
A sensação de velocidade é viciante, mas minha capacidade de manter a estrutura completa na cabeça diminui
Mesmo assim, reconheço esse trade-off, porque sem IA eu não teria conseguido construir o que tenho hoje
Por exemplo, exagerar em código de fallback desnecessário
Sem experiência, talvez você nem perceba que isso está errado
O nível atual dos LLMs é mais ou menos o de um desenvolvedor entre estagiário e júnior
O gargalo não é o modelo, mas a nossa capacidade de validar
TODO(human)no código enquanto explicaFico em dúvida se é realmente necessário usar LLM para automatizar boilerplate
Será que metaprogramação ou scripts tradicionais já não seriam suficientes?
Além disso, recusar IA por princípio também pode ser uma escolha satisfatória
Uso de mouse e teclado, navegação por arquivos, busca de comandos — falta base
Por isso a tentação de pensar “vamos só perguntar ao LLM” fica maior
Mas a verdadeira solução é melhorar a proficiência com ferramentas e aprender engines de template
A IA pode causar atrofia de habilidades,
mas acho que isso é aceitável em áreas nas quais eu não quero me concentrar
Por exemplo, não preciso entender até as otimizações internas do compilador
Para entender como sistemas interagem, é preciso conhecer em algum grau também como compiladores funcionam
Delegar ao LLM as partes com que você não quer se preocupar
e concentrar recursos mentais nos problemas realmente importantes