A indústria de IA está descobrindo que o público a odeia
(newrepublic.com)- A rejeição em torno da IA e dos data centers cresceu a ponto de surgir até violência com motivação política, com um ataque com coquetel molotov à casa do CEO de uma empresa de IA e um tiroteio na casa de um vereador que apoiava data centers
- O fosso entre o otimismo dos especialistas e a percepção pública também se ampliou muito, com uma fatia bem menor do público em geral vendo de forma positiva os efeitos de longo prazo da IA sobre empregos e economia
- As visões extremas de futuro e a exigência de investimentos em larga escala, somadas ao emprego já instável, ao aumento do custo de vida e à preocupação com a conta de luz, fazem a IA parecer algo empurrado goela abaixo de um público que não a quer
- A promessa de produtividade ainda não foi demonstrada com clareza, e muitas empresas não sentiram ganho de produtividade após adotar IA; muitos programas-piloto também não conseguem gerar receita
- Para recuperar a confiança, tornaram-se mais importantes do que white papers ou propaganda ações verificáveis, transparência sobre o desempenho real, aceitação de regulação e responsabilização, e participação local na expansão de data centers
Sinais de reação crescente e violência
- A casa de Sam Altman, CEO da OpenAI, foi alvo de um ataque com coquetel molotov, e o suspeito deixou um manifesto alertando para a ameaça existencial da IA
- O suspeito foi preso no mesmo dia, e os detalhes estão na reportagem do SF Standard
- O manifesto incluía a frase de que CEOs de empresas de IA deveriam ser mortos e trazia a descrição que o autor fazia de si mesmo no Instagram como “butlerian jihadist”
- Em Indianapolis, a casa do vereador democrata local Ron Gibson sofreu 13 disparos, e um bilhete com a frase “No Data Centers” foi deixado na porta
- Seu filho de 8 anos estava na casa naquele momento, mas não se feriu
- Gibson vinha apoiando um projeto de data center que poderia ser construído em seu distrito, e o caso foi resumido pela PBS NewsHour
- Os dois casos foram descritos como violência com motivação política, e nas redes sociais houve até reações que pareciam celebrar isso
- Um exemplo relacionado aparece neste post no X
Diferença de percepção entre público e setor
- O Artificial Intelligence Index 2026, de Stanford, mostrou um grande fosso entre o otimismo dos especialistas e a percepção pública
- Sobre o impacto de longo prazo nos empregos, 73 por cento dos especialistas foram positivos, e sobre o impacto na economia, 69 por cento também foram positivos
- No público em geral, apenas 23 por cento e 21 por cento, respectivamente, avaliaram esses itens de forma positiva, e quase dois terços dos americanos acham que a IA vai reduzir empregos nos próximos 20 anos
- A pesquisa de março de 2026 da Gallup mostrou um aumento ainda maior do ceticismo em relação à IA entre a Geração Z
- A parcela que diz sentir entusiasmo com a IA caiu de 36 por cento para 22 por cento
- A parcela que diz sentir raiva da IA subiu de 22 por cento para 31 por cento
- Essa tendência se conecta com a reação que vê a IA não como uma tecnologia comum, mas como um projeto político das elites
- Jasmine Sun resumiu isso como uma visão de mundo em que bilionários distantes empurram algo indesejado para o público
A mensagem do setor e os custos reais que ampliaram a reação
- Os principais CEOs da indústria de IA vêm há muito tempo enfatizando alternadamente visões extremas de futuro
- De um lado, apresentam a ameaça de que a IA poderia exterminar a humanidade como uma superarma biológica
- De outro, difundem a mensagem de que a IA pode substituir empregos por completo ou acabar criando uma economia que empurra todos para a gig economy
- Essas mensagens entram em choque com as condições de vida já instáveis enfrentadas pelo público
- Em especial, o mercado para quem procura emprego, incluindo recém-formados, é apresentado como muito instável
- Os ganhos econômicos estão concentrados no 0,1 por cento do topo, enquanto os preços de alimentos, moradia e gasolina seguem subindo
- Nesse contexto, o setor ainda pede investimentos gigantescos e expansão em massa de data centers
- O relatório de Stanford descreve a pressão do setor por investimentos contínuos na casa de centenas de bilhões de dólares
- A expansão de data centers também afeta as contas de energia locais, como mostra a Brookings
- Na Virgínia, centro do boom de data centers nos EUA, há previsão de que a conta de luz residencial suba até 25 por cento até 2030, segundo a Georgetown Environmental Law Review
O fosso entre a promessa de produtividade e os resultados reais
- Esses custos só poderiam ser aceitos se a IA mostrasse benefícios públicos concretos ou melhorias claras no trabalho, mas as evidências disso ainda são fracas
- Segundo um artigo do NBER de fevereiro de 2026, 80 por cento das empresas que começaram a adotar IA de forma agressiva disseram que ela não teve impacto na produtividade da companhia
- O dado é citado a partir do resumo do Tom's Hardware
- Um estudo do MIT de 2025 apontou que 95 por cento dos programas-piloto de IA em empresas não geraram nenhuma receita
- O material consta no State of AI in Business 2025 Report
- Mesmo em áreas com grande expectativa em torno da IA, como programação e trabalho técnico, a verificabilidade dos números de produtividade está sendo questionada
- O engenheiro de machine learning Han-Chung Lee observou, em um texto no GitHub, que mesmo quando aparecem números positivos internamente, eles podem ter sido produzidos para cumprir metas de adoção e são difíceis de auditar de forma eficaz por agentes externos
- Ainda assim, considerando que o ChatGPT foi o primeiro grande exemplo de demonstração pública, lançado em novembro de 2022, é natural que uma nova tecnologia passe por um período inicial turbulento
O que é necessário para recuperar a confiança e os limites atuais
- O fosso entre a experiência tecnológica percebida pelo público e a forma como o setor fala de si mesmo já está produzindo efeitos visíveis
- Nos EUA, quase metade dos data centers previstos para 2026 foi cancelada ou adiada, segundo a TechRadar
- Há até pesquisa indicando que a indústria de IA é mais impopular do que o ICE ou Donald Trump
- A Big Tech também passou a reconhecer problemas que podem atingir o público e começou a apresentar algumas medidas de mitigação
- Em abril, a OpenAI publicou o Industrial Policy White Paper, propondo um Public Wealth Fund, reforma da rede de proteção social e medição em tempo real do impacto da IA sobre o trabalho
- Em janeiro, a Microsoft prometeu, por meio da Community-First AI Infrastructure Initiative, subsídios para tarifas públicas e redução do uso de água nas regiões onde construir data centers
- Mas ainda existe um fosso entre as promessas em comunicados e a capacidade de execução no mundo real
- A Community-First Initiative da Microsoft não inclui mecanismos independentes de rastreamento de responsabilização
- O novo white paper da OpenAI parece caminhar para uma política tecnológica progressista, mas Greg Brockman enviou milhões de dólares a um SuperPAC que tenta barrar regulações estaduais de IA, como relata a Fortune
- A OpenAI também apoia o Senate Bill 3444, de Illinois, apresentado como um projeto que protege empresas contra danos em larga escala causados por modelos de IA
- No mesmo artigo, a Anthropic é descrita como contrária a esse projeto
- Em conjunto com a reportagem da New Yorker de Ronan Farrow sobre Sam Altman, ganha destaque um padrão recorrente: declarar apoio público a certas posições e depois mudar rapidamente de rumo quando isso passa a beneficiar a empresa
- Para restaurar a confiança, tornam-se mais importantes do que outro white paper ações contínuas e verificáveis
- É necessária transparência real sobre o que os produtos de fato conseguem fazer
- É preciso aceitar regulação e responsabilização significativas, mesmo que isso traga custo financeiro
- A expansão de data centers precisa de participação democrática efetiva das comunidades locais
- Caso contrário, o populismo anti-IA em crescimento e o risco de violência associado a ele também podem aumentar
1 comentários
Comentários do Hacker News
Acho que as críticas à IA precisam ser separadas em pelo menos três partes e discutidas à parte. As soluções são diferentes para cada uma
A primeira é a perda de empregos, e essa é relativamente simples. Os ganhos de produtividade da IA precisam ser compartilhados com a sociedade como um todo, ainda mais considerando que a IA foi treinada com o trabalho da própria sociedade. A forma mais fácil, na minha opinião, seria cobrar um imposto sobre o uso de IA e convertê-lo em UBI. Se a renda continuar garantida mesmo depois da perda do emprego, a insatisfação seria muito menor
A segunda é o custo ambiental, e essa é mais complicada. O essencial é melhorar a eficiência e expandir a energia limpa; tributação e regulação de eficiência podem ser um ponto de partida. Tecnologias de energia sustentável já existem, mas são caras, e se a IA vai continuar consumindo quantidades imensas de eletricidade, isso não pode ser negociável
A última é a parte realmente difícil. Não há resposta para quanto do trabalho criativo deve ser delegado à IA, nem para como devemos tratar criações feitas por IA
Há também um problema relacionado: a possibilidade de a IA fingir ser humana e realizar fraudes e enganos em massa. O sistema atual de resposta parte do pressuposto de que muitos golpes exigem tempo e esforço, mas esse pressuposto está ruindo
Acho que os data centers de IA deveriam operar inteiramente com geração própria sustentável. Passamos décadas melhorando a eficiência de energia e água; não há motivo para deixar algumas empresas gananciosas absorverem tudo isso
Pode soar como piada, mas eu quero que a IA lave a louça e arrume a roupa por mim, enquanto eu escrevo livros e faço música. Não quero o contrário
Não parece plausível que apenas tributar empresas de IA cubra isso, e quem fala em renda básica precisa tratar os números com muito mais seriedade. Não parece uma solução realista
Se realmente chegarmos ao ponto de substituir 50% da força de trabalho por IA, a influência deles vai ultrapassar qualquer imaginação
A tecnologia ainda está longe disso, mas um exemplo de produção em massa ao estilo IA seria algo como a automatização da adaptação de romances para filmes. Mudanças assim podem empoderar mais as pessoas, reduzir ou elevar a qualidade da arte e dividir ou até unir a sociedade
[1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
Há anos os CEOs de IA vêm gritando a IA é assustadora, vai tirar seu emprego
“Mythos é perigoso demais para ser lançado”
“Daremos recompensa a quem conseguir arrancar do ChatGPT instruções para bioterrorismo”
“IA agêntica vai eliminar categorias inteiras de trabalho”
Essas mensagens parecem ser sinais enviados não ao público geral, mas a governos e grandes clientes corporativos que têm muito dinheiro, custos a cortar e interesse em proteger ou expandir fronteiras
Não é nada surpreendente que as pessoas odeiem IA. Quase nunca foi promovida como um produto para as pessoas
Fora da indústria de IA, essa trajetória sempre foi óbvia. Os líderes do setor falaram em eliminar milhões de empregos, reestruturar massivamente outras funções e até em automação letal de armas, enquanto insistiam em continuar desenvolvendo tudo isso
Até a insegurança econômica recente e as demissões em massa foram atribuídas à IA pelos executivos que as implementaram, e as principais empresas de IA usaram propriedade intelectual em treinamento sem grande constrangimento e depois empurraram IA goela abaixo de todo mundo
Não há nada de estranho em o público odiar IA, e a indústria quase não fez esforço algum para parecer simpática
No fim, parece que os CEOs dessas empresas só querem fazê-las crescer, não importa o custo social
Num mercado onde todo mundo usa o mesmo óleo de cobra, isso não parece diferencial, mas um jeito caro de obter algo mediano
Os entusiastas do X, o tipo gerente intermediário, os influenciadores de IA do LinkedIn, os fabricantes de vídeos falsos no Facebook, todos parecem atrair esse mesmo perfil
Será mesmo? Na sexta-feira ouvi uma apresentação pró-IA no trabalho, e disseram que, ao pesquisar participantes de uma conferência de IA, 93% demonstraram expectativa positiva em relação à IA
Falaram isso com a maior seriedade, como se fosse algo do tipo “as pessoas gostam de cachorros, né”
A falta de autoconsciência pareceu absurda
Quase ninguém quer ficar com essa reputação, e isso só reforça a atmosfera de inevitabilidade de que essa tecnologia vai ser empurrada de qualquer forma, você querendo ou não
Também fico pensando quantas pessoas, no mercado atual, se sentiriam confortáveis para dizer ao chefe ou em público que “IA parece uma grande bobagem”
Se até os números internos de produtividade são moldados para se adequar ao objetivo de adoção e difíceis de verificar externamente, então isso na prática não é tão diferente do que muito BI estilo MBA já faz
Pela minha experiência, BI muitas vezes parecia um castelo de cartas, mais próximo de embelezar uma narrativa como se faz num currículo
No fim das contas, muitas vezes parece que a unidade básica da empresa americana é a capacidade de construir uma narrativa política convincente
Numa época em que o emprego já é sentido como instável, não faz sentido dizer “vamos eliminar seu trabalho e torná-lo inútil” e ainda esperar conquistar simpatia pública
Ainda mais sem apresentar uma rota alternativa de acumulação de riqueza, sem resolver problemas econômicos como moradia e saúde, e ainda piorando coesão social e preço de energia
Se a indústria continuar ignorando alegremente a aversão pública ao impacto social da IA, pode vir uma reação ainda mais forte que o sentimento antinuclear após Chernobyl
Se você olhar a mesma pesquisa tratada neste artigo, verá que entre os entrevistados quase não há nada que seja amplamente bem-visto. A IA é impopular, sim, mas isso também faz parte de um clima geral de aversão em todas as direções
Políticos gastam com guerra e destruição, mas são mesquinhos com programas sociais, e a ascensão da internet tanto facilita quanto dificulta questionar narrativas estabelecidas
Nesse caos e nessa ansiedade, não é estranho que cresça a vontade de culpar alguém
Eu gostaria que artigos assim reconhecessem um pouco mais a adoção em massa entre programadores, pelo menos. Isso não é comparável a usar IA de vez em quando para escrever um e-mail; já há impacto considerável no desenvolvimento de software
Descrever isso como uma ferramenta pequena ainda em teste é perder de vista a realidade
Especialmente a taxa de adoção pode ser uma métrica sem sentido. Ela pode ser forçada mesmo quando não ajuda muito, ou mesmo quando ajuda, o processo de uso pode tornar a vida da pessoa miserável
Além disso, está se acumulando uma expertise debt cujo efeito de longo prazo ninguém conhece
Enquanto isso, a indústria de IA trabalha intensamente para eliminar os próprios empregos deles
Para muita gente, IA é só geração de imagem e geração de texto. E, considerando só esses usos, dá para entender por que parece não valer o tempo, o dinheiro e a energia
Mas há áreas menos visíveis, como a medicina, em que a IA realmente pode ajudar. Descoberta de medicamentos, pesquisa e detecção precoce de câncer, análise de CT e MRI, por exemplo. Esses usos são muito mais importantes, mas pouco comentados
Se tratarmos IA como uma coisa única e homogênea, corremos o risco de jogar fora também as partes boas
Dizer que o uso médico é mais importante também erra um pouco o ponto. É óbvio que curar alguém é mais importante do que arruinar vidas, mas isso não apaga os outros danos causados pela IA
Ser crítico à IA não significa querer eliminar também os aspectos positivos
A IA está sendo vendida abertamente pelo setor como uma ferramenta para substituir seu trabalho. Se é assim, então ou o marketing deles é péssimo, ou os ganhos em outros setores são pequenos demais ou não geram valor para o acionista
Se a IA realmente produzir avanços significativos nessas áreas, então se discute isso de forma séria quando acontecer. Pelo menos até onde eu sei, candidatos a maior inovação médica do século 21, como mRNA ou GLP-1, não são casos em que LLMs tenham tido papel central
Até que esses resultados apareçam de fato, esse argumento parece mais fanfic; falando de forma mais dura, dá até para pensar: de que adianta viver mais se seu trabalho é tirado, a confiança na informação colapsa e tudo ao redor é preenchido por lixo? Isso não é imaginação sobre o futuro, é dano que já está acontecendo
É daí que vem a narrativa de faturamento de trilhões de dólares
Pelas pessoas de fora da área de tecnologia com quem converso, uma parte considerável do público odeia IA. Na verdade, isso até parece uma conclusão de bom senso
Pessoalmente, sinto que a assinatura do Gemini Ultra vale a pena, e também acho divertido e intelectualmente estimulante mexer com APIs fortes no AntiGravity ou usar a linha Claude, o app Gemini e o NotebookLM
Mas, quando a pergunta é se isso justifica custos sociais como os custos de data centers ou a possibilidade de resgate estatal às megacorporações de IA pelo governo dos EUA, eu não consigo defender
Na verdade, parece que a China está nos ultrapassando. A estratégia vencedora parece ser fazer IA mais barata, e GLM-5.1 e Deepseek v4 são surpreendentemente eficazes pelo custo de inferência muito menor