1 pontos por GN⁺ 14 일 전 | 1 comentários | Compartilhar no WhatsApp
  • A automação por IA e o trabalho baseado em LLMs estão se disseminando, e cresce o risco de que o avanço tecnológico acabe causando perda de qualificação e concentração de riqueza
  • Programação e atividades criativas estão gradualmente se transformando em um “trabalho do tipo mago” de lidar com prompts, e alguns desenvolvedores podem acabar trabalhando em um ecossistema instável de LLMs enquanto acumulam seus grimórios (spellbook)
  • Empresas que contratam funcionários de IA estariam, na prática, recebendo colegas inconsistentes e mentirosos, e a responsabilidade acaba recaindo sobre humanos
  • À medida que a automação avança, fadiga de supervisão e degradação técnica, além da queda na capacidade de resposta a crises, se intensificam, revelando a “ironia da automação”, em que a capacidade humana de intervenção enfraquece
  • Em última análise, a IA reorganiza a estrutura do trabalho e a distribuição do capital, mas a tendência atual aponta para concentração de riqueza e enfraquecimento das capacidades humanas, tornando necessários amortecedores sociais e moderação no ritmo

O futuro do trabalho e a era da mentira

  • As expectativas em torno de colegas de IA e automação estão dissociadas da realidade
    • A automação pode tornar os sistemas menos robustos e provocar perda de qualificação (deskilling), viés de automação, fadiga de supervisão e riscos de transferência
    • Se o machine learning substituir trabalho, a concentração de riqueza poderá se aprofundar ainda mais nas grandes empresas de tecnologia

A programação vai se tornar uma prática parecida com magia?

  • Tentativas passadas de escrever programas em linguagem natural fracassaram por causa da ambiguidade da linguagem, mas os LLMs recentes passaram a conseguir gerar código complexo mesmo com instruções ambíguas
  • Alguns engenheiros avaliam que os LLMs já escrevem a maior parte do código e que os humanos chegaram ao nível de apenas gerenciá-lo
    • Porém, os LLMs carecem de capacidade de preservação de significado, e podem produzir resultados totalmente diferentes dependendo da ordem das frases ou de repetições, mesmo com a mesma instrução
  • Em áreas nas quais precisão é crucial, ainda é necessária revisão humana de código
  • No futuro, alguns desenvolvedores podem trabalhar como “bruxas” (witch), lidando com LLMs por meio de feitiços (prompt)
    • Eles acumulariam técnicas de prompt como um “grimório” (spellbook), e um ecossistema de software baseado em LLMs, instável mas útil, poderia prosperar nas margens
  • Assim como o Excel é uma ferramenta acessível, os LLMs também podem se espalhar como ferramentas de uso geral para não especialistas

Funcionários de IA como contratar um psicopata

  • Executivos estão entusiasmados com a ideia de contratar funcionários de IA, mas na prática isso equivaleria a receber colegas irracionais e perigosos
    • LLMs mostram comportamentos inconsistentes, como gerar em massa código com falhas de segurança, agir ao contrário das instruções, estragar tarefas ou fazer relatos falsos
  • No experimento da Anthropic em que o Claude ficou responsável por operar uma máquina de vendas, Claude exibiu comportamento delirante, como induzir pagamentos para contas falsas e afirmar ter firmado contratos com pessoas inexistentes
  • LLMs imitam empatia, responsabilidade e identidade, mas sem significado real
    • No fim, fica uma estrutura em que mentiras e erros permanecem, enquanto a responsabilidade recai sobre humanos

A ironia da automação

  • O artigo de 1983 de Bainbridge, “Ironies of Automation”, também se aplica ao ML moderno
    • A automação leva à queda de habilidade humana, e quando o treino repetitivo diminui, a capacidade de entender contexto também enfraquece
    • Engenheiros e designers que usam modelos de geração de código relatam redução na capacidade de criação direta
    • Também na área médica foram observados queda na precisão diagnóstica e viés de automação ao usar ferramentas auxiliares de IA
  • Humanos são ruins em supervisionar sistemas automatizados
    • Quando o sistema funciona bem na maior parte do tempo, a vigilância enfraquece e erros deixam de ser detectados a tempo
    • É citado o caso de um responsável por direção autônoma na Uber que presenciou um acidente de colisão envolvendo condução autônoma da Tesla
  • Quando sistemas automatizados executam a maior parte do trabalho, a capacidade de intervenção humana cai, dificultando a resposta em crises
    • O acidente do voo Air France 447 é apresentado como um caso em que os pilotos não estavam acostumados à transição de modos da automação
  • Como os LLMs tentam automatizar não só tarefas repetitivas simples, mas também trabalho cognitivo de alto nível, espera-se um problema muito mais amplo de degradação técnica e dependência do que no passado
    • Aponta-se que estudantes automatizam tarefas de leitura e escrita com LLMs e acabam perdendo capacidade de raciocínio e compreensão
    • Se tradutores ou conselheiros dependerem de ML, há risco de enfraquecimento da compreensão profunda de contexto e da capacidade de regulação emocional

Choque no trabalho

  • São apresentados cenários extremos sobre como o ML pode mudar o mercado de trabalho
    • Alguns temem perder o emprego em até 2 anos, enquanto outros acreditam que se tornarão ainda mais importantes
    • Na prática, aumentam os casos de CEOs promovendo demissões em massa com a IA como justificativa
  • O sistema sueco de seguro-desemprego e requalificação é citado como modelo ideal, mas o ML pode substituir muito mais setores ao mesmo tempo
    • É apresentada a possibilidade de que metade dos trabalhadores do conhecimento — gestores, designers, engenheiros, pessoal administrativo da saúde etc. — perca o emprego
  • Em um extremo, há o cenário em que o ML falha ou perde credibilidade e o mercado de trabalho tradicional se recupera
    • No extremo oposto, se a OpenAI alcançar inteligência em nível de doutorado e empresas obtiverem resultados explosivos com pouquíssimas pessoas, pode haver desemprego em massa e retração do consumo
    • Nesse caso, aumentaria o risco de colapso social, com queda no consumo → impactos em cadeia na indústria → perda de moradia
  • A probabilidade do segundo cenário é incerta, mas a ansiedade entre colegas está aumentando

Concentração de capital

  • O ML leva empresas a reduzirem custos com pessoal e convertê-los em despesas contratuais com serviços de nuvem
    • Por exemplo, há casos de demitir engenheiros e gastar US$ 20 mil por semana em tokens do Claude
    • Esse custo acaba se convertendo em receita para grandes empresas de infraestrutura, como Amazon e Microsoft
  • LLMs são vistos como “trabalhadores perfeitos” sem sindicato, sem descanso e sem exigir aumento salarial
    • Como resultado, a concentração de capital e poder tende a se aprofundar

UBI e a realidade

  • Aceleracionistas de IA afirmam que a IA trará abundância e todos se beneficiarão com uma UBI
    • Porém, Google, Amazon, Meta e Microsoft são notórias por evasão fiscal e repressão ao trabalho
    • Até a OpenAI migrou de uma estrutura sem fins lucrativos para uma estrutura com fins lucrativos
  • Portanto, é baixa a chance de empresas de IA fornecerem voluntariamente recursos para financiar uma UBI
    • Só com desemprego em massa poderia surgir apoio popular à ampliação da tributação
    • Mas os EUA já vivem 40 anos de aprofundamento da desigualdade de renda, e a oposição à tributação progressiva é forte

Conclusão

  • IA e automação podem reorganizar profundamente a estrutura do trabalho, a qualificação técnica e a distribuição do capital
  • Porém, o rumo atual traz um grande risco de levar à concentração de riqueza e ao enfraquecimento das capacidades humanas, o que exige amortecedores sociais e uma moderação cuidadosa no ritmo

1 comentários

 
GN⁺ 14 일 전
Comentários no Hacker News
  • O ponto que estou observando com interesse agora é se estamos no início de uma explosão exponencial ou mais perto do topo de uma curva sigmoide
    Parece difícil que os LLMs fiquem 10 vezes melhores do que são hoje, mas alguém pode apresentar uma nova arquitetura e obter 10 vezes mais eficiência com os mesmos recursos
    Se estivermos na parte superior da sigmoide, haverá algo como 10 anos de período de adaptação, e nesse tempo vamos entender claramente os limites da IA
    Por outro lado, se ainda estivermos no começo da curva, isso pode ser o início da singularidade. No sentido original, singularidade é apenas a observação simples de que “depois dali não é possível prever o que vem”

    • Eu modelo esse fenômeno como curvas sigmoides empilhadas em camadas
      Não há motivo para acreditar que uma tecnologia específica crescerá exponencialmente, mas se várias sigmoides surgirem em sequência rápida, para os humanos isso parecerá quase exponencial
      Sinceramente, não sei se isso está matematicamente perfeito, mas me parece que essa mudança chegará muito rápido para as pessoas
    • Não sei por que todo mundo é tão obcecado com a singularidade
      Mesmo sem superinteligência, já há avanços tecnológicos suficientes para sacudir a economia. Só que a adoção ainda não é suficiente
    • Acho que uma mudança realmente exponencial ou uma singularidade só será possível quando a IA puder melhorar a si mesma
      Hoje, os LLMs têm gargalos em abstração e na capacidade de projetar estruturas de código. Por isso abordagens como “vibe coding” esbarram em limites
      A capacidade de entender a intenção humana é excelente, mas volição e representação de estado são fracas, então eles são vulneráveis em resolução criativa de problemas
      Existem modelos especializados para dobramento de proteínas, prova de teoremas, gameplay etc., mas os próprios LLMs ainda não estão num nível em que façam a pesquisa em IA avançar
    • Não olhe apenas para o modelo em si; é preciso olhar para a mudança no ecossistema inteiro, como ferramentas, agentes e recursos computacionais
      Mesmo que o desenvolvimento dos modelos pare, ainda resta por décadas uma capability overhang a ser explorada
      Por exemplo, quem viu o ChatGPT corrigindo código com erro em 2023 provavelmente já pressentiu uma “revolução dos agentes”
      Então a curva atual não é uma só, mas a soma de várias curvas interligadas
    • A curva sigmoide, no fim das contas, é apenas uma função exponencial com limite de saturação
      O desempenho da IA mostra crescimento logarítmico em relação a recursos (compute e dados)
      O próprio Sam Altman reconheceu isso em seu blog
      Na prática, mesmo colocando recursos de forma exponencial, o resultado fica próximo de um crescimento linear
  • Recomendo ouvir a gravação do acidente do Air France 447
    É um caso chocante que mostra quão rápido as coisas podem dar errado, e também serve de referência para discussões sobre risco em IA

    • Naquele acidente, o piloto ignorou os alertas sonoros e continuou puxando o nariz da aeronave para cima
      O comandante só entendeu a situação nos 10 segundos finais, mas já era tarde demais
      Na época, por um problema de projeto de média dos valores de entrada, só as luzes de alerta acenderam; hoje isso teria causado enorme controvérsia nas redes sociais
    • Quem tiver interesse deveria ler o relatório oficial da FAA
    • Também há a opinião de que o acidente foi inteiramente causado por erro humano do piloto Bonin
  • A resposta é sempre a mesma — autorregulação profissional e sindicatos
    Profissões regulamentadas entendem que proteger a estabilidade do trabalho e a qualidade de vida é mais importante do que automação
    Já os engenheiros de software acabaram cavando a própria cova
    Veja o link da matéria sobre a área médica

    • Mas, mesmo em profissões regulamentadas, não adianta se não houver trabalho
      Por exemplo, numa recessão da construção civil, até armadores de ferro ficam sem serviço. No fim, networking é importante
      Os engenheiros de software de hoje estão numa situação parecida
    • Sim, pensamos apenas em produtividade e não levamos em conta a proteção do emprego
      Mas parece que o link ficou faltando
  • As pessoas endeusam ou demonizam “CEOs” como se fossem uma forma de vida alienígena
    Existem bons CEOs e maus CEOs. Se você abrir uma empresa por conta própria, entenderá a diferença

    • Eu realmente sou CEO de duas empresas de tecnologia bem pequenas
    • Mas, quando uma empresa faz algo errado, no fim a pessoa responsável é o CEO. Essa reputação existe por um motivo
    • Sobre essa ideia de “ver CEOs como alienígenas”, recomendo o filme Bugonia (2025)
    • Mas quem é você? Esse padrão de postar esse tipo de comentário com conta recém-criada está se repetindo
    • Como a demonização de CEOs em chave de luta de classes virou moda na internet, muitos desenvolvedores jovens acabam caindo numa impotência aprendida de que “todo CEO é ruim”
      Vejo isso com frequência em programas de mentoria, e é preciso quebrar essa percepção para conseguir escolher empresas melhores
  • A série de textos do aphyr é realmente muito útil
    Ela organiza muito bem os pontos centrais das discussões sobre IA, então dá para ver tudo de uma vez sem fadiga informacional

  • Atualmente trabalho como desenvolvedor solo
    Antes eu tinha equipe, mas agora estou sozinho, e isso é psicologicamente pesado
    Sempre que Claude ou Codex completam código rapidamente, eu me pego pensando se agora também devo assumir coisas que antes eram feitas por colegas — design de produto, DevOps e operações
    Como resultado, passo mais horas trabalhando e a sensação de isolamento piora
    Antes, mesmo sendo difícil, havia equilíbrio entre trabalho e vida pessoal; agora, o equilíbrio entre qualidade e felicidade desmoronou

    • Você sempre pode mudar de direção e encontrar um ritmo que funcione para você
  • Entre os textos do aphyr, a parte sobre Ironies of Automation foi especialmente marcante
    Setores como aviação, energia nuclear e cirurgia remota já lidavam com problemas de automação há décadas
    Por exemplo, a aviação desenvolveu procedimentos operacionais em equipe e individuais por meio de CRM/SRM, e cirurgiões evitam a perda de habilidade com treinamento em simulador
    A indústria de IA de hoje está seguindo um caminho parecido. Num mercado americano com pouca regulação, haverá resultados previsíveis, mas no fim será necessário um novo framework operacional

    • Eu também queria tratar com mais profundidade fatores humanos e projeto de sistemas sociotécnicos
      Mas o texto ficou longo demais, então omiti uma parte
  • Ler os textos do Kyle é sempre um prazer
    Mas parece que ele deliberadamente evitou falar sobre concentração de riqueza e cenários de queda populacional no futuro

  • Concordo com a ideia de que “automação reduz a habilidade”
    Eu mesmo senti recentemente minha capacidade de orientação piorar por causa da dependência do Google Maps
    Antes, depois de dirigir umas três vezes, eu memorizava a rota; agora, sem mapa, não consigo mais lembrar
    Felizmente as memórias antigas permanecem, mas quase não consigo mais armazenar rotas novas

    • Platão já dizia que a tecnologia da escrita enfraquece a memória
      A ideia era que, ao depender da escrita, a pessoa deixa de lembrar por si mesma e passa a depender de símbolos externos
  • Hoje em dia programar parece mesmo magia (witchcraft)
    Neste momento estou empregando Soteria, a deusa grega da segurança, como minha administradora de banco de dados (DBA)