1 pontos por GN⁺ 1 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • O aumento da produtividade individual com IA entre funcionários não leva automaticamente a aprendizado em nível organizacional; o desafio central é o caminho pelo qual descobertas reais saem do indivíduo e viram capacidade de equipe e da organização
  • Na fase intermediária complexa da adoção de IA, o uso de ferramentas como Copilot, ChatGPT Enterprise, Claude, Gemini e Cursor já se espalhou, mas a profundidade de uso varia entre equipes, e parte do aprendizado fica escondida, dificultando comparação e disseminação
  • Métodos tradicionais de gestão da mudança, como comunidades, redes de champions, demos, pesquisas e dashboards, têm dificuldade para capturar adequadamente o contexto, os fracassos, a validação e a intervenção humana no uso de IA que surge durante o trabalho real
  • A engenharia agentic reduz o custo da iteração, permitindo avançar rapidamente da intenção ao protótipo e à avaliação, mas os procedimentos organizacionais de Scrum, sprint e handoff ainda podem partir da premissa de que iteração continua sendo algo escasso
  • As organizações precisam de Agent Operations, Loop Intelligence e Agent Capabilities em conjunto; mais importante do que vigiar funcionários é ter um feedback harness que entenda os loops reais de trabalho e os converta de volta em capacidades reutilizáveis e aprendizado mais rápido

A fase intermediária complexa da adoção de IA em que a organização não aprende

  • Pela ótica de Leadership, Lab, and Crowd, de Ethan Mollick, o ganho de produtividade individual com IA não se transforma automaticamente em resultado organizacional
    • Funcionários podem escrever mais rápido, analisar mais, automatizar e trabalhar como “ciborgues”, mas a empresa pode acabar aprendendo quase nada
    • Ferramentas como GitHub Copilot, ChatGPT Enterprise, Claude, Gemini e Cursor já entraram nas empresas, e em cada equipe há gente muito mais avançada do que os materiais oficiais de treinamento
    • A liderança pode ver uso de licenças, número de prompts, pesquisas, PoCs internas e materiais de comitês de direção, mas ainda assim quase não enxerga onde o aprendizado real está acontecendo
    • Em algumas empresas, a IA passa direto para o departamento de TI e para de evoluir ali
  • A fase intermediária complexa da adoção de IA começa quando o uso de IA já está disseminado, mas de forma desigual, parcialmente escondida, difícil de comparar e ainda desconectada do aprendizado organizacional
    • A unidade de adoção deixa de ser a organização inteira — e talvez até a equipe — para virar o loop dentro do trabalho real

O que acontece depois que todo mundo já tem Copilot

  • A primeira etapa da adoção de IA parece relativamente familiar, como um rollout corporativo tradicional
    • Compram-se licenças, definem-se usos permitidos, fazem-se treinamentos, montam-se redes de champions e pede-se que casos de uso sejam compartilhados em canais do Teams
    • Esses canais podem ficar movimentados por um tempo e depois virar depósitos internos cheios de boas intenções
  • Na segunda etapa, o uso de IA começa a se separar fortemente mesmo dentro da mesma empresa
    • Algumas equipes usam o Copilot apenas como autocompletar
    • Outras colocam o Claude Code para rodar em loops mais fechados com testes, revisão e ajuste contínuo
    • Pessoas de produto passam a prototipar software real em vez de apenas montar telas no Figma
    • Engenheiros sêniores delegam análise de causa raiz a agentes, obtêm soluções válidas em uma hora e encurtam trabalhos que sem IA levariam duas semanas
    • Pessoas júnior podem produzir código sofisticado sem entender quais hipóteses arquiteturais foram embutidas no sistema
    • Equipes de suporte transformam silenciosamente tickets repetitivos em automações de workflow e conhecem dores reais que um Center of Excellence nem chegou a perguntar
  • No modelo de Mollick, a liderança define direção e permissão, a Crowd faz o trabalho real e por isso descobre casos de uso, e o Lab transforma essas descobertas em práticas compartilhadas, ferramentas, benchmarks e novos sistemas
    • A dificuldade central está em como as descobertas realmente saem do indivíduo, passam pela equipe e viram capacidade organizacional

A gestão de mudança tradicional é lenta demais

  • A maioria das empresas tenta tratar a adoção de IA com mecanismos tradicionais de gestão da mudança
    • Comunidades de prática, sessões de almoço, redes de champions, materiais de enablement, office hours, demos mensais, pesquisas e dashboards são usados
    • Em organizações onde ainda é preciso pedir permissão até para experimentar, isso ainda ajuda
  • Mas os usos mais interessantes de IA surgem no trabalho real, sem esperar a próxima reunião da comunidade
    • Eles aparecem em code review, propostas comerciais, tarefas de pesquisa, protótipos de produto, incidentes operacionais, estratégia de testes e perguntas de compliance
    • Em certos tipos de componente de produto, pode surgir um padrão próximo de uma “dark factory”
      • Escreve-se a intenção
      • Deixa-se o agente rodar em um loop solto
      • Aplica-se backpressure suficiente para manter a trajetória
      • Avalia-se o resultado com cenários fortes
      • Refina-se a intenção até obter resultados de alta qualidade de forma repetida
  • O aprendizado que foi realmente útil costuma perder força quando é resumido em slides de best practices
    • Isso acontece porque o valor real veio do contexto que ficou de fora, dos testes que falharam, do comportamento estranho de APIs e da fricção em que humanos precisaram trazer o agente de volta quando ele começou a se dispersar em direções sem sentido
  • Pela ótica do elastic loop, colaboração com IA não é um modo único
    • Ela vai desde um co-pilotagem mais fechada e síncrona até uma delegação mais solta e assíncrona
    • A pergunta importante não é “as pessoas estão usando IA?”, mas sim qual tamanho de loop a equipe deveria usar, onde é preciso resistência, quais artefatos precisam sobreviver após o loop e como esses artefatos viram aprendizado organizacional
    • Essas são perguntas muito mais difíceis do que contar uso de ferramenta ou número de tokens

O Scrum foi feito partindo do pressuposto de que iterar era caro

  • Grande parte dos processos modernos de software existe porque a iteração humana era cara
    • Isso inclui planejamento de sprint, estimativas, standups, user stories, triagem de tickets, handoffs e rituais de coordenação e redução de risco
    • Se uma iteração levava dias ou semanas, era necessário ter estruturas para evitar iterações desperdiçadas
  • A engenharia agentic muda a economia da iteração
    • Ela permite transformar mais opções em coisas realmente testáveis
    • Faz com que se avance mais rápido da intenção ao protótipo e à avaliação
    • Permite que pessoas de produto vejam software funcionando mais cedo
    • Permite que engenheiros testem mais hipóteses antes de decidir
    • Não torna a entrega magicamente fácil, mas desloca a restrição da implementação para intenção, validação, julgamento e feedback
  • Muitas organizações se chamam ágeis há 20 anos, mas mantêm reflexos organizacionais que o ágil queria eliminar
    • A IA torna a agilidade real mais plausível, mas o sistema ainda exige compromissos de sprint de duas semanas, documentos de handoff e processos baseados na premissa de que iteração é escassa
    • Os loops podem passar a se mover mais rápido do que a velocidade com que a organização consegue absorver o que aprendeu com eles

O custo de uso de IA força perguntas melhores dentro da organização

  • O uso de IA tende a se tornar mais claramente mensurável
    • O clima atual de enterprise em que “todo mundo tem acesso e custo não é grande preocupação” pode não durar muito
    • Model routing, orçamento de tokens, pricing baseado em uso, custo de inferência e governança sobre qual modelo pode ser usado para qual tarefa tendem a ficar mais explícitos
  • A questão importante não é reduzir abstratamente o custo de tokens
    • Assim como, na entrega de software, a questão central nunca foi minimizar quantidade de teclas digitadas
    • A pergunta melhor é: “o que mudou porque esses tokens foram gastos?”
  • Deve-se evitar medir apenas quantidade de pull requests
    • Quais loops foram fechados mais rápido?
    • Quais decisões melhoraram?
    • Quais análises de causa raiz ficaram mais precisas?
    • Quais reviews pegaram mais problemas?
    • Quais equipes aprenderam padrões reutilizáveis?
    • Quais ideias de produto foram descartadas mais cedo porque o protótipo revelou fragilidades?
    • Onde a IA gerou aprendizado e onde ela apenas gerou mais output?
  • “Output por token” é um reflexo antigo de medição usando roupa nova
    • O mais importante está mais perto de aprendizado por token

Loop Intelligence como caminho de feedback que estava faltando

  • Na fase intermediária complexa da adoção de IA, a empresa precisa de três capacidades
  • Agent Operations

    • Gerencia quais agentes e ferramentas de IA estão em execução, que sistemas podem tocar e quais dados podem ver
    • Também inclui onde ficam aprovações exigidas para certas ações, identidade, auditoria, permissões e visibilidade de runtime
    • Como o trabalho agentic acaba tocando sistemas reais, o aspecto de controle é importante
  • Loop Intelligence

    • Identifica quais loops assistidos por IA ou totalmente agentic estão realmente gerando aprendizado
    • Observa quais loops permanecem abertos, quais se degradam, onde agentes criam alavancagem e onde se dispersam em ramificações inúteis
    • Permite entender quais equipes estão presas a supervisão mais apertada por falta de testes, contexto ou julgamento, e quais já estão prontas para delegação mais solta
  • Agent Capabilities

    • Distribui capacidades úteis por toda a organização sem presumir que três agentes gigantes farão o trabalho de todo mundo
    • A IA começa a se comportar mais como uma tecnologia de base fluida do que como uma única categoria de aplicação
    • Isso não combina bem com a ideia de manter um “agente de RH”, um “agente de engenharia” e um “agente de vendas” no zoológico corporativo
    • As capacidades precisam fluir para onde o trabalho real acontece
      • harness de funcionários
      • agentes em background
      • equipes de produto
      • serviços de plataforma
      • skills locais
      • servidores MCP
      • suites de avaliação
      • runbooks
      • exemplos
      • procedimentos por domínio

A questão de plataforma e o feedback harness

  • Em nível de plataforma, a pergunta importante é quem possui e como circulam as capacidades úteis
    • É preciso haver um meio de levar a outras equipes uma skill agentic útil descoberta em uma equipe, sem que ela vire um template morto
    • O harness de desenvolvedores, o harness de pessoas de produto, agentes em background de suporte e workflows de compliance precisam ser reforçados de maneiras diferentes
    • Algumas capacidades devem ficar perto da equipe, outras na camada de plataforma, e outras não devem ser generalizadas porque o contexto local é a parte essencial
  • Ter apenas uma das três capacidades rapidamente gera distorções
    • Só Agent Operations, sem Loop Intelligence, vira burocracia de controle
    • Só Loop Intelligence, sem Agent Capabilities, vira uma camada analítica que encontra padrões úteis mas não consegue recolocá-los no trabalho
    • Só Agent Capabilities, sem Operations e Loop Intelligence, vira proliferação de ferramentas com branding melhor
    • O caminho de controle, o caminho de aprendizado e o caminho de capacidades precisam se encontrar em algum lugar
  • Internamente, isso pode ser chamado de feedback harness
    • O que clientes compram não é um mecanismo elegante, mas confiança, decisões melhores, aprendizado mais rápido, menos desperdício e delegação mais segura
    • Um conceito possivelmente mais útil para clientes é Loop Intelligence Hub
  • O feedback harness é um dispositivo para ouvir os loops reais de trabalho
    • Ele observa tarefas, prompts, especificações, reviews, cenários, hipóteses aceitas ou rejeitadas, sinais operacionais, retrabalho, decisões humanas e intervenções
    • Não serve para vigiar pessoas, e sim para entender loops
    • A primeira versão não precisa ser uma plataforma gigantesca
    • Basta escolher alguns workflows reais, instrumentar os pontos em que intenção, trabalho do agente, validação e decisão humana já deixam rastros, e coletar feedback qualitativo suficiente para entender por que um loop deu certo ou errado, transformando isso em artefatos de aprendizado repetíveis
  • O Loop Intelligence Hub transforma sinais em formas sobre as quais a organização consegue agir
    • backlog de enablement
    • radar de capacidades
    • briefs de investimento
    • lacunas de governança
    • workflows reutilizáveis
    • necessidades de treinamento
    • prioridades de avaliação
    • O que importa não é um dashboard único para tudo, mas outputs ajustados à relevância
  • O artefato interessante não é o dashboard em si, mas a decisão por trás dele
    • Algumas equipes precisam de melhor backpressure antes de delegar mais
    • Alguns grupos de produto têm um padrão repetível de dark factory para um tipo estreito de componente
    • Alguns workflows de compliance exigem fronteiras de ferramenta com governança aplicada
    • Algumas skills devem virar plataforma porque cinco equipes as reinventaram de forma inadequada
    • O harness coleta, o hub ajuda a organização a decidir, e a camada de capacidades recoloca o aprendizado no trabalho

Se virar vigilância de funcionários, falha

  • Se essa estrutura virar sistema de pontuação de funcionários, tudo desmorona
    • Se funcionários acreditarem que a organização está medindo se eles usam IA o suficiente, vão manipular o sinal
    • Se acreditarem que todo experimento virará expectativa de produtividade, vão esconder experimentos
    • Se acreditarem que os melhores workflows logo virarão a nova carga padrão de trabalho, vão mantê-los privados
    • A empresa acaba com a pior forma de adoção: conformidade visível e aprendizado invisível
  • A pergunta útil não é “quem está usando IA o suficiente?”
    • Onde a IA mudou o trabalho de um jeito que a organização consegue aprender?
    • Quais loops ficaram mais saudáveis?
    • Quais equipes precisam de melhor backpressure antes de delegar mais?
    • Se protótipos estão virando software real, quais equipes de produto precisam de um ambiente diferente?
  • Políticas são necessárias, mas a governança, assim como o aprendizado, só se torna real no uso
    • Quando agentes passam a tocar tarefas próximas da operação
    • Quando pessoas de produto passam a prototipar em vez de apenas escrever especificações
    • Quando desenvolvedores delegam análise de causa raiz
    • Quando o gasto com tokens cresce e a liderança quer respostas
    • É aí que a organização descobre se construiu um sistema de aprendizado ou apenas comprou muitos assentos

A fase intermediária complexa não é algo a ser apenas suportado

  • A primeira etapa da adoção de IA dizia respeito a acesso
    • Quem recebe a ferramenta, quem recebe permissão, quem negocia contrato e quem consegue testar o modelo mais recente sem abrir ticket de compras
    • Essa fase continua importante, mas não será diferencial por muito tempo
    • O acesso à inteligência de ponta pode ser alugado, mas controle operacional e aprendizado organizacional não podem ser alugados da mesma forma
  • A próxima vantagem está na velocidade de aprendizado
    • Quem encontra padrões reais mais rápido?
    • Quem move descobertas do indivíduo para a equipe e da equipe para a capacidade organizacional?
    • Quem aplica backpressure em loops agentic para impedir que agentes se dispersem?
    • Quem distribui capacidades agentic úteis sem transformá-las em um agente corporativo gigante que não serve para todo mundo?
    • Quem usa engenharia agentic para aproximar o ágil da realidade, em vez de apenas adicionar IA a rituais antigos?
  • É difícil entender essa mudança esperando um playbook definitivo de adoção
    • Em vez de esperar a resposta final de vendors, consultorias ou laboratórios de IA, é preciso instrumentar o trabalho real, compartilhar o aprendizado bagunçado, deixar outras pessoas pressionarem os pontos fracos e iterar em público

1 comentários

 
GN⁺ 1 시간 전
Comentários do Hacker News
  • Em ambientes de grandes empresas, a adoção de IA quase não saiu das equipes de desenvolvimento, e só os desenvolvedores podem usar GitHub Copilot
    O código leva de 6 a 12 meses para ir do commit à implantação em produção, e a velocidade de desenvolvimento nunca foi o gargalo principal
    O que consome tempo são processos como provisionamento de infraestrutura, testes, aprovações, gestão de mudanças e cronogramas de deploy, e a IA acaba piorando ainda mais os gargalos após o desenvolvimento, fazendo com que as mudanças se acumulem na frente do trem de release
    Para que grandes empresas obtenham retorno sobre o investimento no custo dos tokens, elas precisam aprender a implantar software mais rapidamente, e código não implantado não é ativo, é passivo

    • A liderança ainda enxerga software como uma linha de montagem e pensa “fazemos software como a Ford faz carros”
      É verdade que o desenvolvimento de software é ineficiente, mas o ponto central não é escrever código, e sim descobrir qual código precisa ser escrito por meio de investigação e design, e isso não é bem considerado
      Quando a Microsoft grita “código 50% mais rápido!”, a liderança entende como “produto 50% mais rápido, dinheiro 50% mais rápido”
      No momento em que exigirem ROI, há grande chance de virar desastre, e por enquanto todo mundo só está evitando medir
      Em algum momento, os investidores vão exigir “gastamos US$ 2 milhões, então entreguem US$ 4 milhões de lucro líquido”, mas dificilmente esse resultado vai aparecer
      Copilot e Claude não resolvem os gargalos reais, como conhecimento organizacional antigo, soluções especiais não documentadas e possibilidades de uso futuro
      Código não é o produto real nem o trabalho real e, em uma base de código saudável, é quase um subproduto grátis do processo de design e investigação
      Depois que “a equipe de compras tem dificuldade para usar a busca” vira um ticket prático, o componente de filtro de busca em React já está praticamente definido, e codificar vira algo próximo de uma etapa formal de 10 minutos
      Mesmo que o Copilot reduza isso para 5 minutos, não impressiona muito quando se pensa nas 6 horas de reuniões e ligações que vieram antes
    • As grandes empresas ainda não aprenderam nem o básico de que quanto menos código, melhor, então é difícil esperar que de repente aprendam conceitos mais avançados, como implantar software mais rápido
    • Em sistemas grandes o bastante, chega-se a um ponto em que ter mais código passa a ser o oposto do que realmente é necessário
      Nutrição e calorias também só são úteis até certo ponto; depois o retorno diminui e, por fim, surgem efeitos negativos
      Não é uma analogia perfeita, mas ajuda a formar um modelo mental de que produzir mais pode acabar gerando menos valor
      Recebi de clientes o feedback de que a documentação era completa e detalhada, mas excessivamente esmagadora, e no fim descobri que alguns bullet points curtos comunicavam melhor o essencial do que um documento de 5 páginas
    • O velho só ficou novo de novo: a versão da era da IA da teoria das restrições
      [0] https://en.wikipedia.org/wiki/Theory_of_constraints
      [1] https://www.goodreads.com/book/show/113934.The_Goal
      [2] https://www.goodreads.com/en/book/show/17255186-the-phoenix-...
    • Hoje, em ambientes corporativos maiores, a adoção de IA parece ter virado numa direção ainda pior
      O pessoal de finanças veio perguntar se podia fazer vibe coding de um app de planejamento financeiro com Copilot, Cursor e Claude, e ainda trouxe a justificativa de que “o CFO testou o Lovable, ficou convencido e mandou a gente fazer um app no vibe coding”
      Eles sabiam que a liderança trava quando ouve “o CFO mandou” e usaram isso como argumento
      No fim ainda colocaram uma embalagem plausível, dizendo que “precisamos verificar se um app feito com vibe coding pode existir na área financeira corporativa com segurança de dados e manutenibilidade adequadas”
      O mais espantoso é que esse raciocínio saiu de uma empresa com mais de US$ 20 bilhões de receita anual
  • Para um engenheiro comum como eu, usar IA na empresa não traz benefício prático
    A empresa está nos cozinhando lentamente, e a elite do HN — investidores, executivos, celebridades e engenheiros de topo — vai dizer “como você pode ser contra a inovação?”
    IA/LLM não é uma inovação no sentido de TCP/IP, Linux ou Postgres
    Coisas como Claude, Codex, Gemini e Grok existem para gerar lucro, e são ferramentas para espremer produtividade até a última gota e depois tornar demissões possíveis quando você não for mais necessário
    Se IA é boa, é melhor usar modelos open source e usar em projetos pessoais

    • O jogo não está acabando, está mudando
      A IA pode despejar muito código, mas ainda são necessários engenheiros que entendam o que realmente está acontecendo, e isso sempre foi o gargalo
      As vagas júnior podem desaparecer, mas engenheiros sênior parecem seguros por enquanto
      Também sou meio do contra por natureza, e foi uma lição difícil de aprender, mas, uma vez contratado, você foi contratado para fazer o que a liderança quer
      Se for resistir, só resta torcer para que eles não percebam ou não se importem, porque é difícil provocar uma grande mudança
    • O benefício não é que o trabalho fica muito mais fácil? Não sei o que estou deixando passar
    • Existe a narrativa de que engenheiros são explorados pelos capitalistas, mas mesmo do ponto de vista executivo tudo isso parece loucura, tirando a parte do “bônus do próximo trimestre”
      Não sei se lembram do que a SCO fez com a indústria enquanto estava afundando
      Ainda não entendo por que empresas entregam seu código, processos, requisitos de clientes, política interna e visões da liderança — ou seja, suas informações secretas — para startups e megacorporações pouco confiáveis
      A Microsoft também já foi famosa por abusos em NDAs e em relações comerciais
      Acho difícil acreditar que as gigantes de LLM não treinem com material corporativo, e também acho difícil acreditar que não mentiriam dizendo que não fazem isso
      Se elas começarem a ruir, essa corrida do ouro pode deixar uma cauda longa e feia
    • Parece haver no Hacker News uma visão distorcida sobre como CEOs veem funcionários e por que demissões acontecem, e essa é uma leitura muito ruim
      Na prática, quem acaba demitido é quem não adota esse tipo de tecnologia, e agir assim é se colocar por conta própria dentro do escopo da demissão
      Basta olhar o caso da Coinbase hoje: eles estão se livrando de quem não aceita o futuro
      Essas pessoas não ajudam o progresso, não empurram as coisas para frente e ainda seguram quem tenta fazer isso
  • O texto acertou em cheio o messy middle
    Um desenvolvedor cuja responsabilidade e emprego estão em jogo quase não tem incentivo para criar esses ciclos de inteligência
    Por mais gentilmente que a liderança peça, não tenho nenhuma intenção de compartilhar de forma altruísta e gratuita com a empresa os ganhos de produtividade que conquistei
    Se for uma ferramenta útil, até posso compartilhar, mas o know-how de como lidar com IA ou configurar agentes é melhor guardar para mim, a menos que haja reconhecimento pelo compartilhamento
    Nossa empresa criou prêmio de “prompt da semana” e sessões de almoço para incentivar a adoção, e há até times desenvolvendo esses fluxos
    Mas, sem recompensa financeira real nem segurança no emprego, o risco e o custo de espalhar esse conhecimento recaem inteiramente sobre o desenvolvedor

    • Não entendo bem por que mais gente não pensa assim
      Muito antes de a IA chegar onde está hoje, eu já tinha criado uma CLI pessoal para facilitar meu trabalho e escrever scripts de automação
      Colegas viram a ferramenta e pediram para eu compartilhar, mas a resposta, em termos diplomáticos, foi não
      Se eu compartilhasse, viria a carga de dar suporte, e todo mundo passaria a trabalhar com a mesma produtividade que eu, gerando um retorno negativo porque eu perderia minha vantagem
      Além disso, a liderança não reconhece minha criatividade como ativo, então minha segurança no emprego também não aumenta
      Se no futuro próximo eu posso ser demitido de qualquer jeito, não tenho vontade de ajudar a empresa por boa vontade
      Se os desenvolvedores estão preocupados com emprego no mercado atual, seus fluxos pessoais devem ser tratados como segredo comercial
      Esse exemplo não é exclusivo de IA, mas se aplica do mesmo jeito a fluxos de trabalho com IA
      Em um mercado favorável ao trabalhador, às vezes era divertido compartilhar esse tipo de conhecimento com a organização, mas em um mercado favorável ao empregador, se querem acesso à minha escolha pessoal, precisam pagar por isso
    • Não gosto da ideia de tratar o trabalho de forma hostil, mas enquanto a empresa tiver essa mentalidade de soma zero de “se todo mundo é tão produtivo e entrega tanto, por que temos tanta gente?”, fica difícil
      Não sou do tipo que vê o emprego como família, mas seria bom poder trabalhar bem e compartilhar sem me preocupar se estou cavando a minha própria cova
    • Se o empregador espera que você compartilhe seu tempo de forma altruísta e gratuita, isso é exploração
      A maioria das pessoas recebe salário para trabalhar e, durante o expediente, naturalmente deve trabalhar para o empregador
    • Esses “segredos” escondidos em geral não passam de algo no nível da lista de superprompts do Gary Tan
      Na verdade, quase nada é tão incrível a ponto de outras pessoas não conseguirem pensar por conta própria
      Pela minha experiência, mesmo quando compartilho prompts ou técnicas, pouca gente usa, ou então era tão básico que cada um já tinha sua própria versão
      Mesmo antes da IA, se alguém não tinha interesse em xyz, não vai passar a ter depois da IA só porque você serviu isso numa bandeja de prata
    • Outra forma de ver é que ferramentas de IA inicialmente beneficiam o indivíduo, e o usuário transforma o aumento de produtividade em tempo livre
      O trabalho tedioso quase desaparece, e alguns problemas podem ser deixados rodando e resolvidos, devolvendo de 1 a 4 horas por dia
      Essa pessoa vai usar esse tempo de forma racional para procurar mais trabalho? A menos que seja dona da própria empresa ou tenha uma motivação especial, é improvável
  • Como analista de sistemas aposentado há 3 anos, sinto pena dos colegas mais jovens
    Em 2023 fui um dos primeiros do time a usar IA e consegui destravar um código legado em Perl cujo autor original tinha saído havia muito tempo e quase não deixou comentários nem documentação
    Aquele código fazia um trabalho importante, e a IA nos tirou do aperto, então todo mundo ficou impressionado com a nova tecnologia
    Mas, com o tempo, isso passou a parecer menos uma ferramenta que eu podia usar e mais algo sendo feito contra mim
    Ninguém pediu por isso
    Não sei desde quando inspiração e reflexão passaram a ser desvalorizadas e tratadas como sem valor em nome de resolver tudo instantaneamente, e o trabalho perdeu a alma

  • A IA por si só não é tão útil assim
    Agentes esquecem coisas e cometem erros o bastante para que seja preciso revisar todo o trabalho, e no fim a produtividade pode até cair
    Ela mostra seu valor de verdade quando é tratada como uma ferramenta para criar outras ferramentas
    Por exemplo, para fazer com que ela crie ferramentas que obriguem um trabalho a continuar até atingir determinado nível de qualidade, ou que executem verificações de conformidade sobre a saída e indiquem o que precisa ser corrigido
    Só então o trabalho passa a ser confiável
    Hoje, a maior parte dos papéis e fluxos de trabalho é desenhada para operar ferramentas dadas e fazer uma tarefa específica, e nesse sistema a IA só consegue se infiltrar pelas bordas

  • Bom texto, e chamou especialmente atenção a parte sobre como as organizações estão mudando a forma de definir o trabalho
    No modelo anterior, desempenho e OKRs estavam ligados a área funcional, cargo e expectativas por papel
    Na era da IA, essas fronteiras começam a ruir
    O problema mais profundo é psicológico e organizacional, e as pessoas passam a negociar constantemente a linha entre “isso é meu trabalho” e “isso não é minha responsabilidade”
    Daí surge a questão central de adoção: qual é a vantagem de ser reconhecido visivelmente como usuário avançado de IA?
    Se eu sei que consigo trabalhar mais rápido, melhor e atravessando mais funções, por que eu mostraria isso se a empresa não criar um sistema claro de reconhecimento, recompensa e crescimento de carreira?

    • No fim, a propriedade fica com quem tem a responsabilidade de corrigir falhas em produção e fazer manutenção
      Num mundo em que agentes atravessam essas fronteiras, isso pode ficar bem bagunçado
      Será que um engenheiro de IA comandando um enxame de agentes vai também assumir a responsabilidade de manter tudo funcionando? Tenho minhas dúvidas, mas vamos ver
    • Se criarem um sistema para recompensar usuários avançados de IA, a própria carreira deles pode virar um problema
      Se alguém atraído por essa nova profissão combinar algumas semanas de conselhos sobre o contexto específico da empresa com abordagens mais atuais, no fim essa pessoa acaba ocupando o papel de especialista de domínio que será removido
    • Quando um membro do time começa a fazer essas coisas por padrão, tudo parece bem só até ficar evidente a distância entre essa pessoa e o resto da equipe
  • A resposta para “onde está o ROI dos 2 milhões de euros pagos à Anthropic no ano passado?” é a placa de platina de tokens em estilo YouTube pendurada no escritório do CEO

  • O viés de pressuposto embutido na pergunta “onde está o ROI dos 2 milhões de euros pagos à Anthropic no ano passado?” é realmente absurdo
    O problema é que a IA generativa não consegue produzir ROI visível
    E a “solução”, então, seria reorganizar toda a organização de desenvolvimento em torno dessa tecnologia e inventar novas ferramentas
    O verdadeiro objetivo de textos assim não está no conteúdo que eles parecem discutir, mas na normalização dos pressupostos em que a discussão se apoia

    • É como se LLMs não pudessem falhar, e se falharem, a culpa é sua por tê-las feito falhar
  • Trabalhar nessa área agora está realmente péssimo
    Na empresa onde estou, os chefes deixam até pessoas que não são desenvolvedoras usar IA
    Tenho muita vontade de sair e trabalhar em outra área, mas onde moro o salário inicial não paga o aluguel e eu também estou ficando mais velho

  • Comparar a promessa da IA com a bolha pontocom ajudou a entender, e há muitas semelhanças
    Mas a internet era um conceito mais simples do ponto de vista das empresas
    Basicamente significava que agora as pessoas podiam comprar coisas no próprio computador
    Qual é a promessa da IA? Que ela consegue aproximar raciocínio sobre as coisas?
    Este é um quebra-cabeça de implementação muito mais difícil de resolver de verdade
    Fora das tarefas de programação, ainda não acho que tenha visto algo realmente substancial