- A produção em massa de código complexo gerado por IA está se espalhando, e o fenômeno de criar código que humanos não leem está se disseminando por toda a indústria
- Executivos usam a redução de pessoal causada pela IA como justificativa, e desenvolvedores enfrentam pressão para atingir uma certa proporção de código gerado por IA
- Esse tipo de “vibe coding” induz um estado de “dark flow” semelhante ao mecanismo de vício dos jogos de azar, criando uma ilusão de produtividade
- Na prática, há pesquisas mostrando que, ao usar ferramentas de código com IA, as pessoas sentem que a produtividade melhora 20%, mas na realidade ficam 19% mais lentas
- A IA é útil, mas a capacidade humana de pensar, criar e fazer engenharia de software não é substituída; abrir mão disso pode, ao contrário, levar à regressão
A disseminação do vibe coding e a percepção do problema
- Vibe coding é a prática de produzir em massa código complexo gerado por IA, tornando-o difícil para humanos lerem ou manterem
- Algumas empresas usam a ideia de que a IA pode substituir o trabalho humano para justificar demissões
- Desenvolvedores sofrem pressão porque, se não atingirem a proporção exigida de código gerado por IA, podem ser prejudicados na avaliação de desempenho
- Entre estudantes e profissionais, surge o fenômeno de hesitar em investir no próprio desenvolvimento por medo de que “a IA logo vai substituir meu trabalho”
- A IA é de fato útil, mas é preciso ter cuidado com o vibe coding, pois seu uso inadequado pode trazer consequências negativas
A diferença entre “flow” e “dark flow”
- O “flow”, definido pelo psicólogo Mihaly Csikszentmihalyi, é um estado de imersão em que desafio e habilidade estão em equilíbrio
- Já atividades sem relação com habilidade, como o jogo, também podem gerar sensação de imersão, e isso corresponde a um “flow falso”
- Como no caso de Loss Disguised as a Win (LDW) em caça-níqueis, mesmo quando há perda, cria-se a ilusão de ter vencido
- Segundo pesquisas, o LDW provoca reações fisiológicas semelhantes às de uma vitória real, reforçando um engajamento viciante
- Esse fenômeno é chamado de “dark flow” ou “junk flow”, significando uma imersão viciante sem crescimento
Semelhanças entre vibe coding e jogos de azar
- O desenvolvedor Armin Ronacher comentou que, após usar ferramentas de código com IA, produziu muito código, mas na prática quase nada pôde ser aproveitado
- Isso se assemelha à estrutura de ilusão de uma “vitória falsa” nos jogos de azar
- O vibe coding viola as condições do flow nos seguintes aspectos
- Ausência de feedback claro sobre desempenho, oferecendo em vez disso uma falsa sensação de realização
- Desequilíbrio entre o nível de desafio e o nível de habilidade
- Por meio de uma ilusão de controle, leva o usuário a acreditar que está controlando o resultado
- Em muitos casos, os problemas de qualidade do código gerado por IA só são percebidos semanas depois, quando bugs e uma complexidade impossível de manter aparecem tardiamente
- Tanto LLMs quanto caça-níqueis são projetados para maximizar as reações psicológicas do usuário, incentivando o uso contínuo
A ilusão de produtividade e o “narrador não confiável”
- Segundo uma pesquisa da METR, desenvolvedores que usaram ferramentas de IA sentiram que eram 20% mais rápidos, mas na realidade ficaram 19% mais lentos
- Isso significa uma diferença de 40% entre eficiência percebida e eficiência real
- Textos escritos com IA também podem parecer semelhantes à primeira vista, mas ter qualidade inferior
- Um post de blog de um pesquisador de IA, após passar a ser escrito por IA, passou a ter um estilo menos agradável de ler do que antes
- As pessoas têm dificuldade em avaliar objetivamente a própria produtividade e tendem a superestimá-la após usar IA
Previsões erradas e riscos para a carreira
- As previsões de que a IA substituiria completamente a programação vêm errando repetidamente
- Geoffrey Hinton previu que, até 2021, a IA substituiria especialistas em radiologia, mas isso não aconteceu
- Sundar Pichai e Jeff Dean, do Google, disseram que até 2023 todos os cientistas de dados usariam ferramentas automáticas de projeto de redes neurais, o que não se concretizou
- Dario Amodei, da Anthropic, previu que até o fim de 2025 a IA escreveria 90% de todo o código, mas sem base sólida
- Seguir essas perspectivas exageradas e interromper o desenvolvimento das próprias habilidades é arriscado
- O ritmo de avanço da IA tem sido consistentemente superestimado em relação à realidade
A importância contínua do pensamento e da criatividade humanos
- Agentes de código com IA conseguem gerar código sintaticamente correto, mas
- não conseguem realizar abstrações úteis, modularização e melhorias na estrutura do código
- ou seja, a codificação foi automatizada, mas a engenharia de software não
- O texto gerado por IA também pode ser gramaticalmente natural, mas não consegue refinar o pensamento nem identificar com precisão o essencial
- Jeremy Howard alertou: “Se delegarmos totalmente o pensamento à IA, perderemos a capacidade de aprender e crescer”
- A IA é útil como ferramenta, mas não substitui as competências centrais humanas
6 comentários
Ao avaliar a capacidade de trabalho de uma pessoa, existe o fator da 'atitude'. Além das diretrizes de trabalho e das ordens do superior, a postura com que a própria pessoa encara o trabalho é importante. Essa atitude se revela no interesse contínuo pelo trabalho, na percepção e no senso de responsabilidade. Entre esses aspectos, a responsabilidade é especialmente importante. A inteligência artificial pode até imitar outras coisas, mas não tem senso de responsabilidade. A inteligência artificial pode avaliar o resultado final, mas não consegue avaliar a responsabilidade no processo.
A inteligência artificial entende bem o 'como (How)', mas não sabe por que algo deve ser feito. Tentar compreender o propósito fundamental do trabalho, ter a curiosidade de buscar novos caminhos mesmo enfrentando tentativa e erro, e definir a direção em rumo a um objetivo são coisas que só os humanos podem fazer. Responsabilidade não é apenas buscar resultados, mas manter o propósito em vista durante todo o processo e continuar questionando e explorando.
A capacidade de encontrar de forma criativa outros caminhos além do manual e das instruções também nasce de uma postura responsável.
Concordo bastante.
Comentários no Hacker News
Neste momento, sinto que o primeiro é muito mais perigoso. Há bugs sem sentido, arquiteturas sem saída, problemas de segurança, perda de senso de propriedade sobre o código e perda de oportunidades de aprendizado
Por outro lado, se eu usar menos IA, a produtividade cai, mas uma compreensão profunda da base de código e o treinamento adquirido podem ser um ativo maior no longo prazo
Pessoalmente, acho que as ideias criativas que surgem ao encarar o código diretamente são o mais valioso
É uma pena perder essas oportunidades ao delegar cedo demais para a IA
Como há menos trabalho repetitivo, a mente se cansa menos, e dá para focar em problemas difíceis, o que faz surgir ideias melhores
O ponto-chave é manter bom gosto e critérios de qualidade
Quando preparei com antecedência um projeto e uma documentação detalhados, a taxa de sucesso foi maior
Mais do que a geração de código em si, a parte realmente difícil é a etapa de planejamento e design
Em compensação, usar LLM para documentação ou para escrever boilerplate economiza muito tempo
Alguns tentam concluir um app de uma vez, enquanto outros a usam apenas no nível de autocompletar simples
Como surgem formas novas o tempo todo, o melhor é experimentar abordagens variadas com mente aberta
Com tecnologia nova, o correto sempre é validar em partes pequenas e expandir gradualmente
A quantidade certa de uso de IA é “o quanto já foi validado”
Levar essa discussão para o lado de uma aposta de Pascal é triste, e em geral é a lógica de quem está tentando vender alguma coisa
Mesmo que a IA escreva código bem, os modos de falha invisíveis, como erros sutis em cálculo de impostos, são os mais perigosos
Números errados podem acabar refletidos silenciosamente em um sistema contábil real
Por isso, uso IA apenas como uma ferramenta avançada de autocompletar — eu mesmo desenho a arquitetura e a lógica de domínio, e uso IA só para código repetitivo ou scaffolding de testes
No fim, o problema não é “código escrito por IA”, e sim código que eu mesmo não entendo
LLMs escrevem funções bem, mas não decidem quais funções são necessárias
A arquitetura de projetos reais foi construída batendo nos gargalos do mundo real
A IA ajudou apenas na velocidade de implementação; o julgamento estrutural continua sendo totalmente humano
Especialmente os bugs de domínio são algo que um LLM jamais consegue identificar
No fim, arquitetura e conhecimento de domínio continuam sendo responsabilidade das pessoas
Se você manda apenas “escrever código”, é natural que ele não faça isso, porque esse não é o objetivo dado
No último ano, aprendi ao mesmo tempo design de software e Vibe coding
Estudando vários livros sobre DDD, Clean Architecture, Agile etc., me tornei um engenheiro muito melhor
Mesmo usando IA, a responsabilidade pelo código continua sendo minha
Dá para evoluir nas duas frentes ao mesmo tempo
Exige tempo e prática, mas vale muito a pena aprender e não substitui outras competências
Isso porque LLMs são fracos justamente em julgamentos de alto nível e design estrutural
Um sistema bem projetado maximiza a eficiência da IA
Além disso, aprender novos paradigmas ajuda a avaliar e melhorar melhor o código gerado por LLM
Técnicas como BDD, PBT e verificação de modelos são ferramentas que tornam a programação com IA mais segura
Na aparência, parecia uma vitória, mas na prática foi uma vitória disfarçada de derrota
Em resposta, alguém comparou essa descrição a o auge e a queda de uma droga
Para aproveitar LLMs direito, é preciso ter os músculos dessas três funções
Se você consegue visualizar claramente a UI/UX desejada, já é possível obter resultados muito bons com os modelos atuais
Em contrapartida, prompts no estilo “faz aí mais ou menos” são perigosos
A IA deve ser tratada como uma armadura mecânica avançada — com o humano dentro do loop é que ela realmente fica rápida
O avanço tecnológico está tão rápido que coisas difíceis no ano passado agora são triviais
Até ferramentas internas de IA estão sendo substituídas por modelos open source
Parece que estamos vivendo um momento tipo Don’t Look Up da IA — todo mundo precisa se reposicionar para a era da IA antes que seja tarde
Um amigo passou 3 meses criando um produto com Cursor, mas ele tinha muitos recursos e pouca utilidade
No fim, o problema era a ausência de alguém que entendesse o código
É difícil entender como alguém nem sequer faz uma checagem mental básica de plausibilidade (sanity check)
Não consegue realizar abstrações úteis, modularização e melhorias na estrutura do código
>> Concordo.