3 pontos por GN⁺ 3 일 전 | 1 comentários | Compartilhar no WhatsApp
  • A rejeição em torno da IA e dos data centers cresceu a ponto de surgir até violência com motivação política, com um ataque com coquetel molotov à casa do CEO de uma empresa de IA e um tiroteio na casa de um vereador que apoiava data centers
  • O fosso entre o otimismo dos especialistas e a percepção pública também se ampliou muito, com uma fatia bem menor do público em geral vendo de forma positiva os efeitos de longo prazo da IA sobre empregos e economia
  • As visões extremas de futuro e a exigência de investimentos em larga escala, somadas ao emprego já instável, ao aumento do custo de vida e à preocupação com a conta de luz, fazem a IA parecer algo empurrado goela abaixo de um público que não a quer
  • A promessa de produtividade ainda não foi demonstrada com clareza, e muitas empresas não sentiram ganho de produtividade após adotar IA; muitos programas-piloto também não conseguem gerar receita
  • Para recuperar a confiança, tornaram-se mais importantes do que white papers ou propaganda ações verificáveis, transparência sobre o desempenho real, aceitação de regulação e responsabilização, e participação local na expansão de data centers

Sinais de reação crescente e violência

  • A casa de Sam Altman, CEO da OpenAI, foi alvo de um ataque com coquetel molotov, e o suspeito deixou um manifesto alertando para a ameaça existencial da IA
    • O suspeito foi preso no mesmo dia, e os detalhes estão na reportagem do SF Standard
    • O manifesto incluía a frase de que CEOs de empresas de IA deveriam ser mortos e trazia a descrição que o autor fazia de si mesmo no Instagram como “butlerian jihadist”
  • Em Indianapolis, a casa do vereador democrata local Ron Gibson sofreu 13 disparos, e um bilhete com a frase “No Data Centers” foi deixado na porta
    • Seu filho de 8 anos estava na casa naquele momento, mas não se feriu
    • Gibson vinha apoiando um projeto de data center que poderia ser construído em seu distrito, e o caso foi resumido pela PBS NewsHour
  • Os dois casos foram descritos como violência com motivação política, e nas redes sociais houve até reações que pareciam celebrar isso
    • Um exemplo relacionado aparece neste post no X

Diferença de percepção entre público e setor

  • O Artificial Intelligence Index 2026, de Stanford, mostrou um grande fosso entre o otimismo dos especialistas e a percepção pública
    • Sobre o impacto de longo prazo nos empregos, 73 por cento dos especialistas foram positivos, e sobre o impacto na economia, 69 por cento também foram positivos
    • No público em geral, apenas 23 por cento e 21 por cento, respectivamente, avaliaram esses itens de forma positiva, e quase dois terços dos americanos acham que a IA vai reduzir empregos nos próximos 20 anos
  • A pesquisa de março de 2026 da Gallup mostrou um aumento ainda maior do ceticismo em relação à IA entre a Geração Z
    • A parcela que diz sentir entusiasmo com a IA caiu de 36 por cento para 22 por cento
    • A parcela que diz sentir raiva da IA subiu de 22 por cento para 31 por cento
  • Essa tendência se conecta com a reação que vê a IA não como uma tecnologia comum, mas como um projeto político das elites
    • Jasmine Sun resumiu isso como uma visão de mundo em que bilionários distantes empurram algo indesejado para o público

A mensagem do setor e os custos reais que ampliaram a reação

  • Os principais CEOs da indústria de IA vêm há muito tempo enfatizando alternadamente visões extremas de futuro
  • Essas mensagens entram em choque com as condições de vida já instáveis enfrentadas pelo público
    • Em especial, o mercado para quem procura emprego, incluindo recém-formados, é apresentado como muito instável
    • Os ganhos econômicos estão concentrados no 0,1 por cento do topo, enquanto os preços de alimentos, moradia e gasolina seguem subindo
  • Nesse contexto, o setor ainda pede investimentos gigantescos e expansão em massa de data centers
    • O relatório de Stanford descreve a pressão do setor por investimentos contínuos na casa de centenas de bilhões de dólares
    • A expansão de data centers também afeta as contas de energia locais, como mostra a Brookings
    • Na Virgínia, centro do boom de data centers nos EUA, há previsão de que a conta de luz residencial suba até 25 por cento até 2030, segundo a Georgetown Environmental Law Review

O fosso entre a promessa de produtividade e os resultados reais

  • Esses custos só poderiam ser aceitos se a IA mostrasse benefícios públicos concretos ou melhorias claras no trabalho, mas as evidências disso ainda são fracas
  • Segundo um artigo do NBER de fevereiro de 2026, 80 por cento das empresas que começaram a adotar IA de forma agressiva disseram que ela não teve impacto na produtividade da companhia
  • Um estudo do MIT de 2025 apontou que 95 por cento dos programas-piloto de IA em empresas não geraram nenhuma receita
  • Mesmo em áreas com grande expectativa em torno da IA, como programação e trabalho técnico, a verificabilidade dos números de produtividade está sendo questionada
    • O engenheiro de machine learning Han-Chung Lee observou, em um texto no GitHub, que mesmo quando aparecem números positivos internamente, eles podem ter sido produzidos para cumprir metas de adoção e são difíceis de auditar de forma eficaz por agentes externos
  • Ainda assim, considerando que o ChatGPT foi o primeiro grande exemplo de demonstração pública, lançado em novembro de 2022, é natural que uma nova tecnologia passe por um período inicial turbulento

O que é necessário para recuperar a confiança e os limites atuais

  • O fosso entre a experiência tecnológica percebida pelo público e a forma como o setor fala de si mesmo já está produzindo efeitos visíveis
  • A Big Tech também passou a reconhecer problemas que podem atingir o público e começou a apresentar algumas medidas de mitigação
    • Em abril, a OpenAI publicou o Industrial Policy White Paper, propondo um Public Wealth Fund, reforma da rede de proteção social e medição em tempo real do impacto da IA sobre o trabalho
    • Em janeiro, a Microsoft prometeu, por meio da Community-First AI Infrastructure Initiative, subsídios para tarifas públicas e redução do uso de água nas regiões onde construir data centers
  • Mas ainda existe um fosso entre as promessas em comunicados e a capacidade de execução no mundo real
    • A Community-First Initiative da Microsoft não inclui mecanismos independentes de rastreamento de responsabilização
    • O novo white paper da OpenAI parece caminhar para uma política tecnológica progressista, mas Greg Brockman enviou milhões de dólares a um SuperPAC que tenta barrar regulações estaduais de IA, como relata a Fortune
    • A OpenAI também apoia o Senate Bill 3444, de Illinois, apresentado como um projeto que protege empresas contra danos em larga escala causados por modelos de IA
    • No mesmo artigo, a Anthropic é descrita como contrária a esse projeto
  • Em conjunto com a reportagem da New Yorker de Ronan Farrow sobre Sam Altman, ganha destaque um padrão recorrente: declarar apoio público a certas posições e depois mudar rapidamente de rumo quando isso passa a beneficiar a empresa
  • Para restaurar a confiança, tornam-se mais importantes do que outro white paper ações contínuas e verificáveis
    • É necessária transparência real sobre o que os produtos de fato conseguem fazer
    • É preciso aceitar regulação e responsabilização significativas, mesmo que isso traga custo financeiro
    • A expansão de data centers precisa de participação democrática efetiva das comunidades locais
    • Caso contrário, o populismo anti-IA em crescimento e o risco de violência associado a ele também podem aumentar

1 comentários

 
GN⁺ 3 일 전
Comentários do Hacker News
  • Acho que as críticas à IA precisam ser separadas em pelo menos três partes e discutidas à parte. As soluções são diferentes para cada uma
    A primeira é a perda de empregos, e essa é relativamente simples. Os ganhos de produtividade da IA precisam ser compartilhados com a sociedade como um todo, ainda mais considerando que a IA foi treinada com o trabalho da própria sociedade. A forma mais fácil, na minha opinião, seria cobrar um imposto sobre o uso de IA e convertê-lo em UBI. Se a renda continuar garantida mesmo depois da perda do emprego, a insatisfação seria muito menor
    A segunda é o custo ambiental, e essa é mais complicada. O essencial é melhorar a eficiência e expandir a energia limpa; tributação e regulação de eficiência podem ser um ponto de partida. Tecnologias de energia sustentável já existem, mas são caras, e se a IA vai continuar consumindo quantidades imensas de eletricidade, isso não pode ser negociável
    A última é a parte realmente difícil. Não há resposta para quanto do trabalho criativo deve ser delegado à IA, nem para como devemos tratar criações feitas por IA
    Há também um problema relacionado: a possibilidade de a IA fingir ser humana e realizar fraudes e enganos em massa. O sistema atual de resposta parte do pressuposto de que muitos golpes exigem tempo e esforço, mas esse pressuposto está ruindo

    • Esse argumento já apareceu antes na época da automação por robôs, mas nunca se concretizou. Não houve tributação, nem compartilhamento dos ganhos de produtividade. Pelo contrário, em casos como o self-checkout, o trabalho da empresa foi empurrado para o cliente
      Acho que os data centers de IA deveriam operar inteiramente com geração própria sustentável. Passamos décadas melhorando a eficiência de energia e água; não há motivo para deixar algumas empresas gananciosas absorverem tudo isso
      Pode soar como piada, mas eu quero que a IA lave a louça e arrume a roupa por mim, enquanto eu escrevo livros e faço música. Não quero o contrário
    • Quando você perde um emprego de 60 mil dólares por ano, é difícil acreditar que uma renda básica financiada pela IA vá cobrir essa perda. Só a proposta de UBI de 12 mil dólares por ano já exigiria mais 3 trilhões de dólares no orçamento dos EUA
      Não parece plausível que apenas tributar empresas de IA cubra isso, e quem fala em renda básica precisa tratar os números com muito mais seriedade. Não parece uma solução realista
    • Altman e, em certa medida, até Musk, os rostos da indústria de IA, são extremamente antipáticos. Essas pessoas passaram anos falando publicamente sobre desemprego em massa e até extinção da humanidade, então, independentemente do risco real, é inevitável que as próprias empresas sejam odiadas
    • Um quarto ponto a considerar é o controle da influência política. Se deixarmos CEOs de empresas de IA usar seu poder financeiro imenso para influenciar regulação, eleições, seguridade social e até política externa, a democracia pode efetivamente ruir
      Se realmente chegarmos ao ponto de substituir 50% da força de trabalho por IA, a influência deles vai ultrapassar qualquer imaginação
    • Na época do Art Déco, houve debates parecidos por causa do impacto da produção em massa sobre a arte. As opiniões se dividiam sobre se obras produzidas por novos métodos industriais poderiam ter qualidade equivalente à do artesanato, e provavelmente isso continua variando de pessoa para pessoa até hoje
      A tecnologia ainda está longe disso, mas um exemplo de produção em massa ao estilo IA seria algo como a automatização da adaptação de romances para filmes. Mudanças assim podem empoderar mais as pessoas, reduzir ou elevar a qualidade da arte e dividir ou até unir a sociedade
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • Há anos os CEOs de IA vêm gritando a IA é assustadora, vai tirar seu emprego
    “Mythos é perigoso demais para ser lançado”
    “Daremos recompensa a quem conseguir arrancar do ChatGPT instruções para bioterrorismo”
    “IA agêntica vai eliminar categorias inteiras de trabalho”
    Essas mensagens parecem ser sinais enviados não ao público geral, mas a governos e grandes clientes corporativos que têm muito dinheiro, custos a cortar e interesse em proteger ou expandir fronteiras
    Não é nada surpreendente que as pessoas odeiem IA. Quase nunca foi promovida como um produto para as pessoas

  • Fora da indústria de IA, essa trajetória sempre foi óbvia. Os líderes do setor falaram em eliminar milhões de empregos, reestruturar massivamente outras funções e até em automação letal de armas, enquanto insistiam em continuar desenvolvendo tudo isso
    Até a insegurança econômica recente e as demissões em massa foram atribuídas à IA pelos executivos que as implementaram, e as principais empresas de IA usaram propriedade intelectual em treinamento sem grande constrangimento e depois empurraram IA goela abaixo de todo mundo
    Não há nada de estranho em o público odiar IA, e a indústria quase não fez esforço algum para parecer simpática

    • Gostei da perspectiva de Roy Sutherland. Hoje, empresas de IA parecem mirar mais em redução de custos do que em criação de valor, e essa direção é regressiva e destrutiva ao redor
      No fim, parece que os CEOs dessas empresas só querem fazê-las crescer, não importa o custo social
    • Alguns CEOs de tecnologia ficaram tão empolgados que pareceram deixar a máscara cair. Vieram com um “não gostou? vai fazer o quê?”, e quando perceberem que foram rápidos demais, provavelmente vão recuar logo em seguida
    • Nem o aumento de produtividade prometido, nem o nível de baixo custo prometido parecem de fato se concretizar. Muitas vezes quem mais se entusiasma não são os profissionais da linha de frente, mas os gerentes intermediários
      Num mercado onde todo mundo usa o mesmo óleo de cobra, isso não parece diferencial, mas um jeito caro de obter algo mediano
    • É ainda mais surpreendente que as pessoas do setor se espantem ao descobrir que o público as odeia. Foram anos de marketing baseado em medo e exagero, com quase nada que melhorasse de forma clara a vida das pessoas comuns; não sei o que esperavam
    • Os evangelistas de IA também parecem todos vigaristas e arrogantes, o que os torna ainda mais antipáticos
      Os entusiastas do X, o tipo gerente intermediário, os influenciadores de IA do LinkedIn, os fabricantes de vídeos falsos no Facebook, todos parecem atrair esse mesmo perfil
  • Será mesmo? Na sexta-feira ouvi uma apresentação pró-IA no trabalho, e disseram que, ao pesquisar participantes de uma conferência de IA, 93% demonstraram expectativa positiva em relação à IA
    Falaram isso com a maior seriedade, como se fosse algo do tipo “as pessoas gostam de cachorros, né”
    A falta de autoconsciência pareceu absurda

    • Em consultorias e grandes empresas, existe uma atmosfera em que é preciso fingir interesse por IA. É simplesmente a cultura organizacional
    • Basta pensar na situação em que fica quem responde negativamente nessa pesquisa. Dizer ao chefe “a IA parece prejudicial para a sociedade, então não quero usar” é quase como declarar que você não tem interesse em aumentar a produtividade nem o lucro da empresa
      Quase ninguém quer ficar com essa reputação, e isso só reforça a atmosfera de inevitabilidade de que essa tecnologia vai ser empurrada de qualquer forma, você querendo ou não
    • Se você perguntar a gamers o que acham de IA, quase todos serão negativos. Basta olhar o RAMageddon
    • Parece o mesmo que perguntar num concurso de cães se as pessoas gostam de cachorros
      Também fico pensando quantas pessoas, no mercado atual, se sentiriam confortáveis para dizer ao chefe ou em público que “IA parece uma grande bobagem”
    • Isso parece apenas viés de amostra não representativa
  • Se até os números internos de produtividade são moldados para se adequar ao objetivo de adoção e difíceis de verificar externamente, então isso na prática não é tão diferente do que muito BI estilo MBA já faz
    Pela minha experiência, BI muitas vezes parecia um castelo de cartas, mais próximo de embelezar uma narrativa como se faz num currículo
    No fim das contas, muitas vezes parece que a unidade básica da empresa americana é a capacidade de construir uma narrativa política convincente

  • Numa época em que o emprego já é sentido como instável, não faz sentido dizer “vamos eliminar seu trabalho e torná-lo inútil” e ainda esperar conquistar simpatia pública
    Ainda mais sem apresentar uma rota alternativa de acumulação de riqueza, sem resolver problemas econômicos como moradia e saúde, e ainda piorando coesão social e preço de energia
    Se a indústria continuar ignorando alegremente a aversão pública ao impacto social da IA, pode vir uma reação ainda mais forte que o sentimento antinuclear após Chernobyl

  • Se você olhar a mesma pesquisa tratada neste artigo, verá que entre os entrevistados quase não há nada que seja amplamente bem-visto. A IA é impopular, sim, mas isso também faz parte de um clima geral de aversão em todas as direções

    • Esse ódio generalizado me parece apenas um reflexo do descontentamento e do medo em relação ao estado do mundo. Os salários estão estagnados, os preços sobem, e as notícias sobre um mercado acionário forte se acumulam, mas esse ganho não é sentido pelas pessoas
      Políticos gastam com guerra e destruição, mas são mesquinhos com programas sociais, e a ascensão da internet tanto facilita quanto dificulta questionar narrativas estabelecidas
      Nesse caos e nessa ansiedade, não é estranho que cresça a vontade de culpar alguém
  • Eu gostaria que artigos assim reconhecessem um pouco mais a adoção em massa entre programadores, pelo menos. Isso não é comparável a usar IA de vez em quando para escrever um e-mail; já há impacto considerável no desenvolvimento de software
    Descrever isso como uma ferramenta pequena ainda em teste é perder de vista a realidade

    • O impacto em software é muito difícil de medir. Há muita oscilação e variáveis demais
      Especialmente a taxa de adoção pode ser uma métrica sem sentido. Ela pode ser forçada mesmo quando não ajuda muito, ou mesmo quando ajuda, o processo de uso pode tornar a vida da pessoa miserável
      Além disso, está se acumulando uma expertise debt cujo efeito de longo prazo ninguém conhece
    • Muitos desenvolvedores aceitaram essas ferramentas não porque quiseram, mas para continuar recebendo salário
      Enquanto isso, a indústria de IA trabalha intensamente para eliminar os próprios empregos deles
  • Para muita gente, IA é só geração de imagem e geração de texto. E, considerando só esses usos, dá para entender por que parece não valer o tempo, o dinheiro e a energia
    Mas há áreas menos visíveis, como a medicina, em que a IA realmente pode ajudar. Descoberta de medicamentos, pesquisa e detecção precoce de câncer, análise de CT e MRI, por exemplo. Esses usos são muito mais importantes, mas pouco comentados
    Se tratarmos IA como uma coisa única e homogênea, corremos o risco de jogar fora também as partes boas

    • As pessoas conhecem esses usos médicos também. Só que, como há um volume esmagador de usos negativos, não surpreende que o foco vá para eles
      Dizer que o uso médico é mais importante também erra um pouco o ponto. É óbvio que curar alguém é mais importante do que arruinar vidas, mas isso não apaga os outros danos causados pela IA
      Ser crítico à IA não significa querer eliminar também os aspectos positivos
    • É uma questão de perspectiva. É bem diferente vender uma faca como ferramenta para cortar cebola ou como arma para matar o vizinho
      A IA está sendo vendida abertamente pelo setor como uma ferramenta para substituir seu trabalho. Se é assim, então ou o marketing deles é péssimo, ou os ganhos em outros setores são pequenos demais ou não geram valor para o acionista
    • Muitas vezes isso soa como a desculpa do “pensem nas crianças
      Se a IA realmente produzir avanços significativos nessas áreas, então se discute isso de forma séria quando acontecer. Pelo menos até onde eu sei, candidatos a maior inovação médica do século 21, como mRNA ou GLP-1, não são casos em que LLMs tenham tido papel central
      Até que esses resultados apareçam de fato, esse argumento parece mais fanfic; falando de forma mais dura, dá até para pensar: de que adianta viver mais se seu trabalho é tirado, a confiança na informação colapsa e tudo ao redor é preenchido por lixo? Isso não é imaginação sobre o futuro, é dano que já está acontecendo
    • Hoje a IA não está sendo vendida como uma ferramenta para ajudar você ou seu subordinado a trabalhar melhor, mas como uma ferramenta para substituir subordinados e aumentar o lucro trimestral
      É daí que vem a narrativa de faturamento de trilhões de dólares
  • Pelas pessoas de fora da área de tecnologia com quem converso, uma parte considerável do público odeia IA. Na verdade, isso até parece uma conclusão de bom senso
    Pessoalmente, sinto que a assinatura do Gemini Ultra vale a pena, e também acho divertido e intelectualmente estimulante mexer com APIs fortes no AntiGravity ou usar a linha Claude, o app Gemini e o NotebookLM
    Mas, quando a pergunta é se isso justifica custos sociais como os custos de data centers ou a possibilidade de resgate estatal às megacorporações de IA pelo governo dos EUA, eu não consigo defender
    Na verdade, parece que a China está nos ultrapassando. A estratégia vencedora parece ser fazer IA mais barata, e GLM-5.1 e Deepseek v4 são surpreendentemente eficazes pelo custo de inferência muito menor