- O palestrante Gergely Orosz é criador da newsletter e do podcast Pragmatic Engineer e ex-engenheiro da Microsoft e da Uber, e compartilha a realidade da adoção de GenAI vista em campo
- Ao contrário das expectativas exageradas de CEOs e fundadores, a experiência real dos desenvolvedores mostra um cenário mais complexo por causa das limitações das ferramentas e da variação de produtividade
- Startups de ferramentas de desenvolvimento com IA e big techs têm alta taxa de uso interno e investimentos ativos, mas algumas startups e áreas especializadas ainda relatam baixa utilidade
- Desenvolvedores independentes e engenheiros veteranos vêm percebendo recentemente um ponto de virada da GenAI, com reações positivas à expansão da produtividade em programação e da criatividade
- Kent Beck avalia a adoção de LLMs como uma mudança de paradigma do nível da internet e dos smartphones, enfatizando novas tentativas e experimentação
Apresentação do palestrante
- Gergely Orosz
- Criador da newsletter e do podcast Pragmatic Engineer
- 10 anos de experiência como engenheiro na JP Morgan, Microsoft(Skype), Skyscanner, Uber e outras empresas
- Atualmente investiga com foco o impacto da GenAI na engenharia de software
Expectativas exageradas e realidade
- CEO da Microsoft: "A IA escreve 30% de todo o código"
- CEO da Anthropic: "Dentro de 1 ano, 100% do código será gerado por IA"
- Jeff Dean, do Google: "A IA em breve alcançará o nível de um desenvolvedor júnior"
- Mas a realidade:
- Um agente de IA criou bugs e gerou custos de centenas de dólares
- Em uma demonstração no Microsoft Build, a IA falhou ao corrigir código complexo
Startups de ferramentas de desenvolvimento com IA
- Anthropic:
- Todos os engenheiros internos usam Cloud Code
- Mais de 90% do código é escrito por IA
- Adoção do MCP(Model Context Protocol) → permite conexão com IDE, DB, GitHub etc., com grande expansão em andamento
- Windsurf: 95% do código é escrito por IA
- Cursor: 40~50% escrito por IA, “metade funciona bem e metade tem limitações”
Situação nas big techs
- Google:
- Recursos de IA embutidos na IDE própria Cider (autocompletar, revisão, busca de código)
- Forte expansão da adoção interna no último ano
- A organização de SRE está reforçando a infraestrutura para lidar com 10 vezes mais linhas de código
- Amazon:
- Amazon Q Developer Pro → forte em tarefas relacionadas à AWS
- Modelos da Anthropic (Claude) também são usados ativamente na escrita de documentos internos e na temporada de avaliações
- Ampla integração de servidores MCP → expansão da automação de ferramentas internas
Startups e casos individuais
- Incident.io:
- Toda a equipe experimenta IA ativamente e compartilha dicas no Slack
- Após a adoção do Cloud Code, a taxa de uso disparou
- Startup de biotecnologia:
- Como há grande necessidade de escrever código novel internamente, a eficiência dos LLMs é baixa
- Ainda avaliam que programar diretamente é mais rápido
Desenvolvedores independentes e engenheiros veteranos
- Armin Ronacher (criador do Flask): usa agentes como estagiários virtuais e percebe aumento de produtividade
- Peter Steinberger (fundador da PSPDFKit): avalia que a barreira de linguagem diminuiu e que “a centelha técnica voltou a se acender”
- Simon Willison (cofundador do Django): com as melhorias recentes dos modelos, “os agentes de IA para programação entraram em uma fase prática”
- Brigita (Thoughtworks): LLMs são uma nova ferramenta de abstração que cobre toda a stack
- Kent Beck (criador do TDD): “Em 52 anos de carreira, este é o momento mais divertido”, e avalia os LLMs como uma inovação do nível da internet e dos smartphones
Questões em aberto
- Por que CEOs e fundadores estão mais entusiasmados do que os engenheiros?
- A taxa real de uso de ferramentas de IA está em torno de 50% por semana; ainda não é algo universal
- Economia de tempo: segundo uma pesquisa da DX, o ganho é de 3~5 horas por semana, bem distante da exagerada “produtividade 10x”
- Por que no nível individual o efeito é grande, mas no nível organizacional ele é menor?
Conclusão
- LLMs podem possibilitar um salto de produtividade comparável à transição de assembly para linguagens de alto nível
- Porém, a IA não é determinística, e a eficiência varia muito conforme equipe e área
- Mensagem: este é o momento de experimentar e aprender, com ênfase em “tentar ativamente aquilo que ficou mais barato e se tornou possível”
Ainda não há comentários.