1 pontos por flowkater 1 시간 전 | Ainda não há comentários. | Compartilhar no WhatsApp

O fim do “isso não está no meu R&R”

  • R&R é uma ferramenta para deixar a responsabilidade clara, não um escudo para fugir dela — a responsabilidade por reestruturações está no julgamento de negócio da liderança, mas o ponto de partida do texto é que também já não é seguro deixar a segurança da própria carreira nas mãos desse julgamento e da boa vontade da empresa

O inverno nas contratações de agora = não é IA, e sim a normalização que já começou em 2023

  • 2021~2022, excesso de liquidez na pandemia → salário inicial de desenvolvedor em 60 milhões de won, contratação imediata de formados em bootcamp → período de excesso de contratações. Quando o dinheiro secou, profissionais vindos de empresas quebradas e gente contratada em excesso inundaram o mercado
  • Segundo dados da Comissão de Serviços Financeiros, no 1º semestre de 2023 o investimento doméstico em venture capital caiu 42% em relação ao mesmo período do ano anterior. Segundo a Startup Alliance, o volume total investido em 2023 caiu 52%
  • “Não foi a IA que de repente destruiu o mercado de desenvolvedores. A IA apenas revelou mais rápido a face nua de um contrato de trabalho que já estava ruindo”
  • Quem foi mais complacente naquela época foi a própria gestão das empresas. Assim que o mercado congelou, o fracasso dos seus negócios foi repassado integralmente como custo aos funcionários individuais

O que a IA está absorvendo não é código, mas o próprio especialismo

  • Google: no earnings call do Q3 de 2024, 25% do novo código era gerado por IA → no Cloud Next de 2026-04, isso subiu para 75%. Triplicou em um ano e meio. A expressão central é “AI-generated and approved by engineers” — a IA escreve, o engenheiro aprova e assume a responsabilidade
  • Meta, Mark Zuckerberg, earnings call do Q4 de 2025: “Estamos começando a ver projetos que antes exigiam grandes equipes sendo concluídos agora por uma única pessoa realmente excepcional”
  • Se uma pessoa faz o trabalho que antes era de 10, isso não é só uma questão de eficiência, mas de comprimir em uma única pessoa também o julgamento, a coordenação, a validação e a responsabilidade após o deploy que antes eram distribuídos por uma equipe grande. O critério de contratação está mudando de quantity para quality
  • A IA não está eliminando a especialização; ela está eliminando a zona de conforto de quem só tem especialização. Quando o mercado esfria, quem desaparece primeiro é quem fica restrito ao próprio cargo

Taste e capacidade de decisão também não são zona de conforto

  • O enquadramento “já que a IA faz isso, as pessoas devem focar em taste e capacidade de decisão” é uma armadilha que compara IA e humanos no mesmo plano. Isso implica que, em certo nível ou setor, taste e decisão também podem ser suficientemente substituídos
  • ThePrimeagen (20 anos de carreira, palestra I suck de 2026-05-02): durante um slump de 6 meses, ele eliminou duas hipóteses em sequência. Gosto (taste)? Não. Quantidade de código? Também não. Conclusão: “Se o custo de uma linha de código caiu drasticamente, então o custo da linha de código correta sobe drasticamente”
  • Dados dos dois lados: no experimento com GitHub Copilot (arXiv 2302.06590), a conclusão foi 55,8% mais rápida. Já no estudo da METR de 2025, desenvolvedores experientes de open source usando IA em codebases que conheciam bem ficaram, ao contrário, 19% mais lentos. A IA reduz o custo de produzir, mas não reduz automaticamente o custo de entender o contexto e fazer a escolha certa
  • Mockups de design, primeira revisão de código, organização de trade-offs de arquitetura — até no workflow do autor estão aumentando as áreas em que “a diferença no resultado é mínima, decida eu ou decida a IA”. Isso é um sinal de que o taste está sendo absorvido nesse nível
  • O que a IA não consegue fazer não é a escolha mais bonita, e sim assumir a responsabilidade pelas consequências da escolha

A IA não consegue assumir responsabilidade — essa é a diferença essencial

  • Caso do chatbot da Air Canada (2024): o chatbot forneceu informações erradas de reembolso a um cliente → a empresa tentou tratá-lo como um agente separado, mas o órgão canadense de resolução de disputas decidiu que “se a informação vem de uma página estática ou de um chatbot, a responsabilidade continua sendo da empresa”. A IA pode gerar uma resposta, mas a responsabilidade de decidir expô-la é da pessoa e da organização
  • Autoexposição do autor: no 2º ano como CTO, quando a empresa começou a ter dificuldade para captar investimento, ele só então pediu ao time financeiro que lhe enviasse os materiais mensalmente. Ele ainda se lembra da expressão no rosto da líder de finanças como quem dizia: “Por que o CTO está olhando isso só agora?”. Foi ali que percebeu que ignorância é outro nome para irresponsabilidade
  • Critério de contratação gravado na página de Careers da Anthropic: “When it comes to our mission, none of us are bystanders. We each take personal ownership over making our mission successful.” O critério de contratação estampado pela empresa que melhor faz IA é ownership
  • Os padrões de comportamento de quem assume responsabilidade e de quem a evita são opostos. Um lado pergunta “como o resultado chega ao cliente em forma de valor e a quais métricas da empresa ele se conecta”, e quando algo dá errado explica “o que eu deixei passar”. O outro fica dentro do R&R e, mesmo quando o outcome é ruim, não consegue abrir mão do próprio output
  • Taste, decisão, compreensão de princípios e comunicação são capacidades para exercer responsabilidade, não substitutos da responsabilidade

Cinco perguntas que o indivíduo precisa se fazer

  • ① Que problema do cliente o trabalho que faço agora resolve? — se você não consegue responder, é um trabalho desconectado do valor de mercado externo
  • ② Com qual KPI de negócio (receita/custo/retenção) esse trabalho se conecta, e como? — se você não consegue explicar em uma linha, significa que nem sabe como a empresa vai avaliar sua posição
  • ③ O resultado que produzi foi realmente usado, e consigo explicar a causa do fracasso em 3 frases se ele falhar? — deploy ≠ uso, o que foi feito ≠ o que chegou
  • ④ Em vez de usar IA para produzir mais, estou usando para validar mais rápido? — esta é a maior armadilha da era da IA. Quem assume responsabilidade gasta recursos não em volume, mas em velocidade de validação
  • ⑤ As variações de “isso não está no meu R&R” — se algo é importante para o resultado, mas você larga porque está fora da fronteira do cargo, a responsabilidade vai embora junto

As empresas também precisam mudar o sistema de recompensa — não é um texto unilateral

  • O texto deixa claro na parte final, para não ir na direção de cobrar responsabilidade só do indivíduo: “Se a empresa quer exigir esse nível de responsabilidade dos funcionários, precisa pagar uma compensação equivalente”
  • Pessoas que atuavam como generalistas, assumindo responsabilidade e cuidando do valor para o cliente, foram durante muito tempo uma área mal avaliada. Numa era em que o especialismo está sendo absorvido pela IA, o valor delas é mais alto do que nunca
  • Jasmine Sun, NYT Opinion, 2026-04-30: “A maioria das pessoas da indústria de IA que eu conheço acha que as pessoas comuns estão ferradas. E não faz a menor ideia do que fazer.” O verdadeiro pesadelo que o Vale do Silício enfrenta não é uma rogue AI, e sim o cenário em que pessoas comuns perdem sua alavancagem econômica por causa da automação
  • Frase final: “A IA pode substituir o nosso trabalho. Mas não pode substituir a nossa responsabilidade. Por isso, na era da IA, a pessoa mais valiosa não é a que produz mais, e sim a que assume responsabilidade até o fim.”

Ainda não há comentários.

Ainda não há comentários.