- Na indústria de software, o burnout entre engenheiros está se agravando, e especialmente engenheiros juniores estão causando problemas de qualidade de código e colaboração por causa do uso excessivo de ferramentas de IA
- O feedback de engenheiros seniores, em vez de ser usado como oportunidade de aprendizado, está sendo transformado em novos prompts para a IA, e "código escrito por IA" está consumindo a revisão de toda a equipe
- Em algumas organizações, código incompleto criado por IA é apresentado como se fosse "resultado", criando um ambiente que incentiva a dependência de IA
- O autor relata, por experiência própria, ter sentido incômodo e estranhamento ao receber respostas de código geradas por IA, criticando que a IA acaba prejudicando a cultura de aprendizado e mentoria
- O ecossistema de startups de IA também acabará sendo insustentável por causa de ineficiência econômica, consumo de energia e problemas ambientais, e enfatiza que a situação atual não é diferente de uma farsa em que "o rei está nu"
Introdução: um ambiente de engenharia inquietante
- Recentemente, o fenômeno de burnout entre engenheiros vem se intensificando
- Nas organizações, espera-se que engenheiros seniores revisem e contribuam com "funcionalidades baseadas em vibe (meme)" que na prática não funcionam de verdade
- Pela minha experiência, os melhores engenheiros sempre têm vontade de ajudar novos membros da equipe a crescer
- Mas, em vez de esse feedback ser usado como oportunidade de crescimento, desenvolvedores iniciantes o utilizam apenas como o próximo prompt a ser enviado para uma IA generativa
- De fato, testemunhei diretamente muitos casos de engenheiros juniores usando ferramentas de LLM (grandes modelos de linguagem) em nível de abuso
Casos reais dentro da organização: os danos do abuso de IA
- Recentemente, em um town hall da empresa, vi engenheiros juniores demonstrando novos entregáveis
- Eles pareciam não entender direito nem o propósito nem o funcionamento das funcionalidades
- Mas, em organizações grandes, o foco costuma ser encenar "sucesso" independentemente do resultado real
- Quando um gerente sênior revelou o uso de IA por eles, explicou com orgulho: "estas são 4 mil linhas de código escritas pelo Claude", e recebeu aplausos
- Eu também, ao revisar código depois de receber um pedido de pequena melhoria em uma funcionalidade existente, pedi contexto ao engenheiro júnior que havia feito a alteração recente
- Enviei a URL do commit no GitHub e fiz perguntas, mas tudo indica que ele inseriu o conteúdo em um LLM e depois copiou a resposta retornada
- Nesse processo, senti um estranho estranhamento e desconforto
A ladeira da IA e os limites do code review
- Pelo caso de um amigo, confirmei que realmente está acontecendo o desperdício de tempo de vários engenheiros por um mês inteiro, revisando e tentando fazer merge de código gerado automaticamente por LLM (
vibe-coded PRs)
- Outro amigo relatou ter ficado exausto de revisar repetidamente "código malfeito" criado por IA
- Graças à IA, não há melhora na qualidade do código nem aprendizado; apenas aumenta o trabalho repetitivo
O verdadeiro valor da cultura de desenvolvimento e do crescimento humano
- Todo engenheiro cresce passo a passo graças a colegas e mentores
- Ensinar diretamente e ajudar no crescimento é a essência da cultura de engenharia de software
- Mas há um ceticismo crescente diante da realidade de que esse investimento acaba sendo copiado imediatamente como dados de treinamento para o "modelo mais recente"
- Então surge a pergunta fundamental: seria melhor treinar só o modelo em vez de engenheiros juniores?
- Um mundo assim é uma visão muito sombria.
O experimento de não usar IA e a conclusão
- A proposta direta é: tente parar de usar IA
- O próprio autor recentemente formatou o computador e cancelou a assinatura do Claude Pro
- Fazer algumas buscas e ler o Stack Overflow e a documentação oficial acabou permitindo chegar a conclusões muito mais confiáveis
- Isso o levou a pensar que seu próprio julgamento é superior ao resultado de um LLM em termos de precisão e confiabilidade.
O valor econômico das ferramentas de IA generativa, e seus limites essenciais
- Ele levanta a pergunta: "a IA é realmente útil?"
- Objetivamente, a situação levanta grandes dúvidas sobre esse valor
- O processo típico de startups de IA é o seguinte:
- "IA" é aplicada a um domínio existente, e novas empresas surgem sob o argumento de eficiência
- A startup de IA consegue captar investimento de capital de risco
- Paga pelo uso a empresas provedoras de serviços de IA (como a OpenAI)
- A própria startup de IA não consegue gerar lucro
- Considerando apenas esse processo, ele não difere muito do ecossistema tradicional de VC, mas a diferença central é que nem mesmo as provedoras de serviço (como a OpenAI) ainda conseguem gerar lucro
- A tecnologia em si é essencialmente ineficiente e tem uma estrutura desfavorável para expansão em massa
- O consumo excessivo de eletricidade e os efeitos colaterais ambientais também são problemas graves
Conclusão: a necessidade de reconhecer a realidade
- Pode-se torcer para que a Lei de Moore volte à vida, ou para que todos fiquem ricos antes que o universo esfrie
- Mas, ao encarar a realidade, o negócio de IA generativa é um tipo de ilusão e um fenômeno de "o rei está nu"
Ainda não há comentários.