A IA enfrentará violência, e nada de bom virá disso
(thealgorithmicbridge.com)- A violência contra a tecnologia, que começou no movimento ludita da Revolução Industrial, está ressurgindo hoje em ataques contra IA e data centers
- Casos reais de violência vêm se acumulando, como o ataque com coquetel molotov à casa do CEO da OpenAI, Sam Altman, um tiroteio contra um data center e ameaças de morte feitas por um ativista anti-IA
- Quanto mais a tecnologia se torna fisicamente impossível de destruir, mais a raiva tende a se voltar para os humanos que a criaram
- A indústria de IA vem mencionando repetidamente a substituição de empregos e um futuro incerto, estimulando o desespero e a raiva do público
- Se esse ciclo vicioso continuar, há o risco de que a violência na era da IA leve ao colapso dentro da própria sociedade humana
A vulnerabilidade da tecnologia e a violência humana
- O tear (loom) é uma estrutura delicada, que pode quebrar facilmente dependendo da umidade ou da tensão, sendo um símbolo da Revolução Industrial e uma ferramenta sofisticada criada pelas mãos humanas
- Sua estrutura, formada por peças conectadas por madeira e fios, pode ruir por completo mesmo com pequenas rachaduras ou folgas
- Serviu de base para a indústria têxtil e é citado como ponto de partida da evolução tecnológica que depois levou a fábricas, instalações de energia e data centers
- O data center (datacenter) é descrito como uma enorme estrutura de concreto, aço e cobre, comparada a um “tear” moderno com projeto redundante e sistemas de segurança
- É protegido por fechaduras biométricas, cercas elétricas e guardas armados, e foi projetado para que uma falha isolada não paralise tudo
- Os algoritmos em seu interior não existem como equipamento físico, mas como padrões digitais distribuídos pelo mundo todo
- Destaca-se que, indo além da destruição física, é impossível parar o próprio algoritmo e a superinteligência (superintelligence)
- A superinteligência é descrita como algo que “sai da caixa”, uma entidade que os humanos não conseguem controlar
- Alguns chegam a defender o bombardeio de data centers para impedir isso, e houve inclusive um caso em que a Guarda Revolucionária do Irã ameaçou destruir o campus Stargate da OpenAI
- Mesmo com o avanço da tecnologia, a vulnerabilidade física humana não mudou, e isso leva ao alerta de que, no fim, o alvo dos ataques não será a tecnologia, mas as pessoas
Repetição histórica: dos luditas à era da IA
- É apresentado o caso de 1812, no Reino Unido, em que o dono de uma fábrica têxtil, William Horsfall, foi morto a tiros pelo ativista ludita George Mellor
- Horsfall era conhecido por se gabar da repressão aos trabalhadores, e Mellor acabou enforcado
- O episódio é apresentado como um exemplo histórico de que a violência surge quando o avanço tecnológico ameaça a sobrevivência humana
- Em paralelo, é descrito o caso de 2026, em San Francisco, nos EUA, em que a casa do CEO da OpenAI, Sam Altman, foi alvo de um ataque com coquetel molotov
- O autor do ataque foi Daniel Alejandro Moreno-Gama, de 20 anos, que está detido
- Altman e sua família não se feriram, mas o caso é citado como início de uma violência direta contra líderes da tecnologia
- Houve também o caso da casa do vereador de Indianápolis Ron Gibson, que foi atingida por 13 tiros junto com a mensagem “NO DATA CENTERS”
- Gibson apoiava a construção de um data center na região, e nem ele nem seu filho ficaram feridos
- Em 2025, também houve a prisão de um ativista anti-IA que fez ameaças de morte contra o escritório da OpenAI em San Francisco
- Esses casos mostram que a raiva contra IA e data centers está se transferindo para a violência contra pessoas
- Quanto mais inacessível é o alvo tecnológico, mais a raiva se volta para alvos humanos
O elo entre desespero e violência
- O texto aponta que o fato de líderes de empresas de IA repetirem que “a IA vai substituir empregos” é um fator que estimula a raiva do público
- As pessoas passam a sentir que “foram vocês que criaram esta era incerta”, o que amplia a reação emocional
- O atrito que leva à violência é grande, mas, se um sentimento comum de desespero se espalhar, esse atrito pode desaparecer
- Quando as pessoas sentem que foram excluídas do futuro, ou seja, que seus meios de subsistência estão desaparecendo e que estão sendo substituídas pela tecnologia, há o risco de a violência se tornar real
- Isso pode levar a uma escolha extrema: “viver ou matar”
- O maior erro da indústria de IA é apontado como o fato de anunciar uma substituição total de empregos sem uma transição segura
- Declarações repetidas como “estamos criando uma tecnologia que vai desestabilizar completamente o trabalho de colarinho branco” ampliam a ansiedade social
- O texto critica esse tipo de fala autoconsciente por passar uma impressão desumana e psicopática
O ódio à IA e a lógica do bode expiatório
- As pessoas estão transformando a IA em bode expiatório para todos os problemas sociais, misturando questões reais com alegações falsas ao expressar sua raiva
- Por exemplo, problemas reais como roubo de dados são citados ao lado de alegações falsas como esgotamento de recursos hídricos
- As empresas também transferem para a IA a responsabilidade por demissões, escapando da crítica social
- Ao reforçar por conta própria a imagem de que se trata de uma “tecnologia perigosa e poderosa”, a indústria de IA acaba alimentando a desconfiança e o medo do público
- Surge naturalmente a reação: “se a IA é tão perigosa assim, por que nós devemos arcar com os danos?”
- A violência contra Altman jamais pode ser justificada, mas existe a possibilidade de que a violência continue
- Os incidentes recentes são interpretados como sinais iniciais disso
O ciclo vicioso que precisa parar
- Já foram relatados efeitos colaterais da IA, como transtornos mentais, vício, desemprego e queda da alfabetização
- Essa instabilidade social precisa ser contida antes que se transforme em violência
- O texto conclui que o avanço tecnológico não pode seguir em uma direção que ameace a dignidade e a segurança humanas
1 comentários
Comentários do Hacker News
Enquanto as pessoas continuarem chamando IA genericamente de “desigualdade” ou “acelerador da desigualdade”, no fim parece que tudo vira culpa da IA
Na verdade, é preciso separar essas duas coisas. Só uma coisa é certa: se você tira o sustento das pessoas com alegria, isso vai voltar em forma de violência
Antes de dizer “isso é trabalho do governo”, vale pensar de onde vem o dinheiro do lobby. Quase não existem CEOs ou empresas lutando por uma rede de proteção social
Para as pessoas, IA é uma ferramenta de poder dos ricos, e elas sentem que esses ricos estão tornando o mundo pior. Nessa situação, ninguém liga para distinções acadêmicas
Nesse caso, o poder da IA seria democratizado e todos poderiam ter igualmente os meios de produção
Pela minha experiência, o autor passa a impressão de estar sentado em uma zona moral neutra. Uma postura do tipo “violência é ruim, mas inevitável” é uma posição sem qualquer solução
O verdadeiro problema não é a tecnologia, mas a forma como os poderosos a usam em benefício próprio.
Quando as pessoas perdem seus meios de sobrevivência, a violência se torna inevitável. Historicamente, a violência muitas vezes foi um meio de forçar compromissos. A IA já está preparando esse estágio por meio de vigilância e militarização
O texto de Cory Doctorow vai na mesma linha. A única solução é ação política; sem governança, a tecnologia é perigosa
A IA ignora as regras da sociedade humana quase como um invasor alienígena. É replicável, está em toda parte e não tem limitações físicas
A ganância humana permitiu essa “invasão”, e, no fim, foi a própria humanidade que convidou o domínio da IA
Recomendo estudar a história da Revolução Industrial. O Industrial Revolutions Podcast é um bom material
A velocidade da mudança atual é parecida com a daquele período. Na época, a spinning jenny também destruiu da noite para o dia o sustento de artesãos que teciam tecidos
A atração quase mágica dos LLMs parece ter se desgastado muito por causa das falas exageradas dos CEOs da FAANG
Como na relação entre Tony Stark e Jarvis, o objetivo final é automação total, não o ser humano
Costumo perguntar se existe alguém se preparando para “o mundo em que a IA deu certo”
Experimentos de UBI causaram inflação, e, antes que o ajuste de mercado termine, a legislação não consegue acompanhar
Sindicatos de vários países também estão discutindo com o meio político, e existem caminhos para participar
O fortalecimento da verificação de identidade online faz parte disso
Se a IA substituir a criatividade e o trabalho humanos, parece que só restará conflito sangrento
Até os “empregos inúteis” existiriam por causa da interação humana
O que vai mudar é o significado de “trabalho”
O trabalho para sobrevivência já foi automatizado o suficiente, e daqui para frente vai restar buscar significado humano
Diante da frase “isso é um caminho para o caos”, alguém aponta para a realidade da IA sendo usada na guerra
Segundo esta matéria, milhares de pessoas já morreram sob sistemas de armas apoiados por IA
Violência não é a resposta, mas é a válvula de escape da raiva reprimida. Dizer apenas “violência não pode” não impede a realidade
Ando pesquisando recentemente o movimento ludita. Sam Altman parece uma espécie de Edmund Cartwright
Ele também foi o inventor do tear mecânico e até sofreu uma tentativa de assassinato, mas sobreviveu. Os tempos são diferentes, mas parece uma repetição da história