1 pontos por GN⁺ 1 시간 전 | 1 comentários | Compartilhar no WhatsApp

A guinada da Meta para IA está tornando a vida de 78.000 funcionários dolorosa

  • À medida que a Meta acelera a transição para a era da IA, a empresa está coletando dados de uso do computador dos funcionários sem consentimento, anunciando demissões em larga escala e provocando uma explosão de insatisfação interna
  • Funcionários reagiram fortemente contra um programa que rastreia digitação no teclado, movimentos do mouse, cliques e até o conteúdo da tela, classificando-o como violação de privacidade, mas não existe opção de opt-out
  • Ao incorporar o uso de ferramentas de IA às avaliações de desempenho e rastrear o consumo de tokens em dashboards, a pressão competitiva entre funcionários está aumentando
  • A demissão de 10% da força de trabalho (cerca de 8.000 pessoas) está marcada para 20 de maio, e funcionários vivem a ansiedade de talvez estarem treinando seus próprios substitutos por IA
  • O caso da Meta, em que vigilância de funcionários, adoção forçada de ferramentas e demissões em massa avançam ao mesmo tempo por causa da transição para IA, serve como precedente do futuro de outras empresas de tecnologia

Rastreamento total dos dados de uso do computador dos funcionários

  • No mês passado, a Meta avisou funcionários nos EUA de que passaria a rastrear integralmente digitação no teclado, movimentos do mouse, cliques e o conteúdo da tela
  • O objetivo é garantir dados de treinamento para ensinar modelos de IA sobre “como as pessoas realmente usam o computador para executar tarefas cotidianas”
  • Funcionários reagiram imediatamente, criticando a medida como invasão de privacidade, antissocial e desumana
  • Um gerente de engenharia perguntou: “Isso é muito desconfortável, como faço para sair disso?”, mas o CTO Andrew Bosworth respondeu: “Não há opção de opt-out em notebooks corporativos”
  • Funcionários reagiram à resposta com mais de 100 emojis de raiva e surpresa
  • Depois disso, funcionários também questionaram se a Meta conseguiria proteger com segurança os dados coletados, e Bosworth respondeu que “os dados são controlados de forma extremamente rigorosa e não há risco de vazamento”

A estratégia de Mark Zuckerberg para a transição à IA

  • Zuckerberg aposta o futuro da Meta na IA, integrando IA a apps como Facebook e Instagram e investindo centenas de bilhões de dólares em modelos de IA e data centers
  • A empresa começou a se reorganizar em torno da IA após o lançamento do ChatGPT, da OpenAI, em 2022
  • No verão passado, gastou bilhões de dólares para criar um laboratório de “superinteligência (superintelligence)” e reestruturar completamente a divisão de IA
  • Zuckerberg enfatiza que a superinteligência vai melhorar a vida das pessoas
  • Em um Q&A geral realizado no dia seguinte a uma call com investidores, Zuckerberg explicou que a coleta de dados dos funcionários “não é vigilância nem rastreamento de desempenho”, e sim uma forma de ensinar à IA “como pessoas inteligentes usam o computador para realizar trabalho
  • Ele acrescentou: “A IA é provavelmente uma das áreas mais competitivas da história”

AI Transformation Weeks e pressão para adoção de ferramentas

  • Em março, a Meta realizou as “AI Transformation Weeks” para funcionários
  • Foram oferecidos treinamentos sobre ferramentas de programação com IA e agentes de IA (assistentes digitais que executam tarefas por conta própria)
  • Designers de produto foram orientados a tentar programar com IA, e desenvolvedores de software foram orientados a tentar fazer design com IA
  • Foi introduzido um dashboard interno para rastrear o consumo de tokens (unidade de uso de IA, equivalente a cerca de 4 caracteres de texto)
    • Alguns funcionários interpretaram isso como um instrumento de pressão para estimular competição entre colegas
    • A criação excessiva de agentes de IA levou a situações em que surgiram agentes para encontrar agentes e até agentes para avaliar agentes
  • O uso de ferramentas de IA passou a contar nas avaliações de desempenho

Demissões em larga escala e ansiedade dos funcionários

  • Depois de uma reportagem em 17 de abril afirmar que a Meta em breve demitiria 10% de toda a força de trabalho, funcionários passaram a temer que estivessem treinando seus substitutos por IA
  • Dois dias depois, a Meta anunciou oficialmente que demitiria cerca de 8.000 pessoas neste mês
  • Em mensagem interna, a chefe de RH Janelle Gale disse que a redução serviria para “compensar outros investimentos” e mencionou: “Eu sei que quase um mês de ambiguidade deixa tudo muito angustiante”
  • As demissões estão programadas para 20 de maio
  • Alguns funcionários já não veem mais a Meta como um lugar para construir uma carreira de longo prazo, e há até movimentos de pessoas querendo entrar na lista de cortes para buscar outro emprego ou receber indenização

Reações dos funcionários e clima interno

  • Funcionários estão reagindo compartilhando guias sobre demissões e memes niilistas
    • O meme “It do not matter” circulou internamente
  • Até a demissão de 20 de maio, foram criados pelo menos três sites de contagem regressiva
    • O cabeçalho de um deles parodiava o nome de um projeto de lei de política doméstica do presidente Trump: “Big Beautiful Layoff”
  • Um funcionário de pesquisa com usuários escreveu em post interno: “A moral está absurdamente baixa
  • Um funcionário criticou diretamente Bosworth, dizendo: “É preocupante a frieza com que você trata as preocupações dos seus próprios funcionários”

Implicações para todo o setor

  • A situação da Meta funciona como um caso precursor do que outras empresas de tecnologia podem enfrentar ao introduzir IA no ambiente de trabalho
  • Microsoft, Block e Coinbase também anunciaram recentemente demissões ou programas de desligamento voluntário em meio a mudanças no trabalho causadas pela IA
  • Como ferramentas de IA são úteis para gerar código, o impacto tende a ser especialmente destrutivo para engenheiros de software, a base dos negócios digitais
  • O professor Leo Boussioux, da University of Washington, afirmou que “a IA pode tornar todo mundo um programador melhor, mas ao mesmo tempo aumenta a intensidade do trabalho cotidiano”, avaliando que “ainda não existe um playbook para o uso de IA no trabalho”
  • A CFO Susan Li afirmou em call com investidores que, “com as capacidades de IA evoluindo rapidamente, a empresa não sabe qual será seu tamanho ideal”, sugerindo novas mudanças

1 comentários

 
GN⁺ 1 시간 전
Comentários no Hacker News
  • https://archive.is/JUPmz

  • O padrão é o seguinte: o Zuck tem alguma ideia, os bajuladores ao redor dizem “isso mesmo, isso vai mudar o mundo”, e depois tudo vira um teatro de demonstração de lealdade
    Se você perguntar “como foi possível torrar 80 bilhões de dólares no metaverso?”, foi exatamente assim
    Não entre na Meta. Não importa se o recrutador responder rápido ou se o trabalho parecer incrível. Os gerentes mentem no processo de matching de equipes. Há um motivo para a permanência média ser inferior a 2 anos
    É uma cultura tóxica e baseada no medo. Quando você entra, as pessoas ao seu redor já estão pensando em como transformar você em bode expiatório. O trabalho de verdade fica trancado com quem tem vantagem política, e quem está de fora precisa inventar projetos vazios com boa aparência. Mesmo que você encontre trabalho por conta própria, a politicagem para tomar isso de você começa imediatamente

    • Ou você pode entrar na Meta, vender a alma, aguentar 7 anos e se aposentar sem nunca mais trabalhar
    • Fiquei curioso se isso é especulação ou experiência em primeira mão
  • A liderança olha para um mercado de trabalho fraco e imagina que pode demitir à vontade engenheiros que considera problemáticos
    Especialmente nos últimos anos, a liderança das empresas de tecnologia tem sido em grande parte formada por gente de universidades de elite onde a riqueza dos pais influencia fortemente as chances de entrada, então não surpreende esse desprezo extremo pelo trabalho
    Já tentaram repetidas vezes tratar engenheiros com anos de formação como trabalhadores braçais substituíveis, e o resultado sempre foi o mesmo. LLMs não vão mudar isso

  • Parece que ainda falta uma norma social mais ampla para o uso de IA no trabalho intelectual
    Há pouco tempo, alguém no trabalho me mandou uma quantidade enorme de texto pelo Teams. Era uma pessoa normalmente bem-intencionada, mas que costumava cometer um erro ortográfico a cada palavra e quase nunca escrevia mensagens com mais de 20 palavras; claramente era um copia e cola do ChatGPT
    Para quem, como o pessoal do HN, pensa em termos de troca de contexto e volume de informação, o problema dessa situação é óbvio, mas percebi que para o público em geral não é nada óbvio. A pessoa aparentemente achou, de boa-fé, que era útil gastar 15 segundos escrevendo um prompt e me fazer gastar 30 minutos destrinchando uma gororoba de IA
    Esse entendimento ou consenso sobre o que é uma prática aceitável nisso tudo ainda não entrou de fato nas normas sociais

    • A IA reduziu o custo de produzir informação, mas agora leva mais tempo para interpretar essa informação
      Pessoas menos competentes ou menos úteis conseguem produzir mais informação em menos tempo, e pessoas mais úteis acabam gastando seu tempo mais valioso para interpretar isso. Por isso sou cético de que, na maioria das organizações, os LLMs gerem ganho líquido
    • O princípio básico é não copiar e colar conteúdo gerado por IA diretamente na comunicação. Essa deveria ser a linha
      Não importa o que você use nos bastidores, mas o que for enviado deveria ser o resultado de um pensamento seu, sintetizado por você
      Se não for assim, como muita gente já disse, então basta mandar o prompt. Às vezes é até mais interessante e melhor saber que um colega está tendo dificuldade para comunicar alguma coisa
    • Essa sensação de “eu tenho que gastar 30 minutos para decifrar algo feito com um prompt de 15 segundos” é a frustração central que está se espalhando pelo trabalho em geral
      Antes da IA, havia pelo menos a suposição de que, para criar um documento de design, um ticket no Jira ou um pull request, a pessoa tinha investido uma quantidade razoável de tempo e esforço próprios
      Os LLMs apagaram essa suposição. Agora, um email, um documento de design de 12 páginas, um pull request de 100 ou 1000 linhas, ou 10 tickets no Jira podem tanto ser algo em que alguém investiu tempo quanto algo plausível despejado por uma assinatura de IA. Ainda assim, tudo isso precisa ser lido e processado, e esse custo é 100 vezes maior que o esforço de quem produziu
      Para quem sempre viu o trabalho como um jogo de otimização entre esforço real e aparência de valor, os LLMs são o atalho perfeito. Dá para produzir documentos que fazem parecer que muita coisa foi feita com apenas algumas linhas de pedido
      Se alguém gastar 30 minutos revisando uma gororoba de IA saída de um prompt de 15 segundos, essa pessoa vai colar o feedback no ChatGPT e mandar o documento revisado de volta. Aí você acabou fazendo o trabalho dela também
      Para equipes ou empresas que usam a aparência de atividade como métrica substituta de contribuição, isso vai ser uma transição difícil. O mundo inteiro dos trabalhos de escritório baseados em email ganhou uma ferramenta para gerar entregas que parecem trabalho feito, e muitas vezes parecem razoavelmente corretas. Uma pessoa pode produzir uma enxurrada de documentos de design, tickets no Jira e até respostas espirituosas no Slack da empresa, parecendo o funcionário mais ativo e dedicado, enquanto faz menos trabalho real do que nunca
      Equipes que já têm uma boa cultura de revisão e gerentes que se importam com resultado, e não com métricas, vão ficar bem. Basta olhar um pouco mais de perto para identificar o funcionário do copia e cola de IA. Já os gerentes preguiçosos que só passavam os olhos em documentos e faziam gráfico de número de pull requests ou linhas alteradas de código vão se chocar ao perceber que os campeões do jogo deles são justamente os que mais prejudicam a equipe
    • O padrão atual é: “se você sabe que estou esperando uma resposta humana, não cole e me envie uma saída bruta de ChatGPT sem editar”
      Todo mundo quer mandar o resultado do seu jeitinho, mas ninguém quer receber isso
      A maioria sabe que está fazendo exatamente isso. Se você sente necessidade de esconder o uso de LLM, é sinal de que a versão final não tem voz e trabalho seus o suficiente, e isso é o que precisa ser corrigido
    • Quando isso aparecia como referência em tickets de suporte ao cliente, acontecia de o atendente me reenviar, na forma de um óbvio resumo de IA, um único email do cliente que eu mesmo já podia ler
      Eu entendo a intenção de ajudar, mas é difícil não sentir como se estivessem me tratando como criança ou idiota. Antigamente existia um consenso de que “dar uma googlada pelo outro” era falta de educação, e letmegooglethatforyou.com era um bom exemplo disso; não entendo por que resumos e gororobas de IA não são vistos da mesma forma
  • O texto fala das demissões na Meta, mas é provável que o impacto maior no moral dos funcionários venha das demissões em massa, e não da IA
    Minha hipótese atual sobre as demissões em empresas de tecnologia é a seguinte: ao longo da última década mais ou menos, práticas que estimulavam rotatividade, como stack ranking, saíram de moda. Dá para imaginar por quê. Talvez mudanças geracionais tenham feito gestores intermediários perderem a vontade de fazer o trabalho sujo. De todo modo, essa mudança aconteceu
    Mas as empresas ainda querem eliminar quem tem baixo desempenho, e alguns acham isso necessário. Então agora fazem reduções de quadro periódicas em toda a empresa e colam a justificativa mais conveniente do momento, seja macroeconomia, IA ou qualquer outra coisa
    Essa hipótese explica por que as empresas contratam agressivamente durante ou logo após demissões, e por que as demissões se repetem ano após ano

    • Não precisa se preocupar. Stack ranking e rotatividade forçada continuam extremamente na moda nas empresas de tecnologia
  • O Mark odeia vazadores, então é bem engraçado que o NYT aparentemente tenha linha direta com dezenas de pessoas de dentro da empresa
    No fim das contas, é difícil manter segredo de algo compartilhado com 70 mil funcionários

    • Na época em que eu prestava mais atenção ao comportamento do Zuckerberg, eu pensava que ele “odeia vazadores”, mas é incapaz de refletir sobre o próprio comportamento e mudá-lo para não deixar as pessoas com tanta raiva a ponto de querer vazar
      Ele é uma pessoa extremamente reativa, não do tipo que se pergunta “como eu posso ser a mudança” ou “o que eu fiz para isso acontecer?”
      Eu pensava isso ao ver os vários escândalos do fim dos anos 2010. Para ele, tudo era gestão de crise de relações públicas, não introspecção. A melhor RP é não ser uma pessoa ruim. Fico curioso se isso alguma vez passou pela cabeça dele
  • Parece que quem está em empresas pequenas ou trabalha sozinho sente mais prazer em usar IA
    Como autônomo, no último mês eu torrei quase US$ 1.000 em tokens, e me diverti bastante fazendo isso

    • Não surpreende. As pessoas gostam de ser mais produtivas quando ficam com ao menos uma parte do ganho dessa produtividade
      Se esperam que você fique 10 vezes mais produtivo, mas sem aumento, no fim você só está enchendo o bolso dos executivos enquanto reduz sua própria segurança no emprego
    • A Meta está no extremo oposto. Logo no começo do artigo já dizem que agora vão monitorar como todo mundo usa o computador por causa da IA
      Até agora não faz sentido para mim que a Meta tenha achado isso uma boa ideia, e que tenha presumido que os funcionários ficariam tranquilos só porque disseram que seria usado apenas para treinamento anônimo de IA
    • Eu trabalho sozinho, mas não sinto prazer em usar IA
    • Estou sentindo essa energia. Estou tentando de todo jeito continuar na grande empresa onde estou por causa do plano de saúde, mas a atração está forte demais
  • Bosworth respondeu: “Esses dados são controlados com um grau de rigor muito alto”. “Não haverá risco de vazamento”
    Nossa. Palavras famosas ditas antes do desastre

  • Passei boa parte da vida acreditando que a tecnologia tornaria a vida melhor, mas agora percebo que isso era um erro
    A tecnologia amplifica poder. Até redefinirmos e aplicarmos coletivamente um sistema de valores que beneficie a todos, o avanço tecnológico só funciona como instrumento de subjugação

    • Indo por esse caminho, isso é basicamente o que o Unabomber dizia, e já faz tempo que existe esforço para impedir que as pessoas percebam isso
      No fim, ou se caminha para o totalitarismo, ou se resiste a ele e se avança rumo ao desconhecido para tentar abrir uma rota de fuga. O totalitarismo pode significar parar o progresso e manter o status quo, ou manter um primitivismo anárquico, ou levar a um tédio tecnocrático
      Na prática, só resta seguir em direção ao desconhecido e torcer. Mas eu não vou fingir que consigo enxergar qual é o caminho através de tudo isso
    • Acho que essa é a verdade central. A tecnologia em si não melhora a vida
      Escrevi recentemente sobre os Luddites. Quando se olha para as reivindicações reais deles, não eram antitecnologia; eram ativistas trabalhistas. Durante a Revolução Industrial, a vida da maioria das pessoas piorou muito, e só melhorou depois que as leis que defendiam finalmente foram implementadas
      https://www.disruptingjapan.com/the-real-luddites-would-have...
    • “Em qualquer sociedade tecnologicamente avançada, o destino do indivíduo inevitavelmente depende de decisões sobre as quais ele pode exercer pouquíssima influência. Uma sociedade tecnológica não pode ser dividida em comunidades pequenas e autônomas, porque a produção depende da cooperação de muitas pessoas e máquinas. Essa sociedade precisa ser altamente organizada, e decisões que afetam um número muito grande de pessoas precisam ser tomadas. Quando uma decisão afeta, digamos, 1 milhão de pessoas, cada indivíduo afetado tem, em média, apenas uma milionésima parte de participação nessa decisão”
    • “Redefinir e aplicar coletivamente um sistema de valores que beneficie a todos” é impossível
      Primeiro, as pessoas frequentemente — e de forma muito profunda — discordam sobre o que “beneficia a todos”. Muitas dessas diferenças simplesmente não têm solução sem força física
      Segundo, “aplicar” significa dar a algumas pessoas poder para fazer coisas a outras pessoas. Poder para restringir ações que, se feitas por qualquer outra pessoa, seriam crime: prender, multar e assim por diante. David Friedman define o governo dessa forma no livro The Machinery of Freedom, que vale a leitura. O problema é que o governo também precisa ser operado por seres humanos, e seres humanos não são confiáveis o bastante para receber esse tipo de poder
      No fim, a única defesa é não dar esse poder a outras pessoas. Nem ao governo, nem às big techs, nem a ninguém. Mas isso exige um nível de previsão que a maioria das pessoas não tem, ou não quer usar. Especialmente quando há algo doce e tentador logo à frente. Quando o Facebook apareceu pela primeira vez, quantas pessoas previram que algumas décadas depois ele se tornaria um monstro gigantesco impossível de controlar e decidiram simplesmente não usar? Olhando ao meu redor, a resposta é “não um número significativo”. Entre as pessoas que conheço, a única que nunca usou Facebook sou eu. E nem eu rejeitei desde o começo por prever onde isso chegaria; só segui uma repulsa instintiva e depois passei anos vendo um desastre em câmera lenta
      Então estamos presos. Por exemplo, mesmo que o governo decidisse desmembrar as big techs e aplicar multas gigantescas a Zuckerberg, Bezos e outros, confiscar patrimônio, impor trabalho comunitário e até prender alguns deles, no fim ainda seriam seres humanos não confiáveis fazendo isso com outros seres humanos. O problema fundamental continuaria sem solução. Seria só chutar a lata um pouco mais para a frente
    • Depende muito da tecnologia. Tecnologias diferentes redistribuem poder de maneiras diferentes
      LLMs certamente são muito centralizadores. É quase impossível para um indivíduo ou uma pequena empresa treinar seu próprio LLM. No máximo dá para baixar um modelo pré-treinado, embora pelo menos isso não possa ser alterado silenciosamente nem tirado de você com facilidade