A resistência à IA está crescendo
(stephvee.ca)- Enquanto a internet transborda de conteúdo de baixa qualidade gerado por IA (slop), estão se espalhando vários movimentos de resistência ativa à IA por parte das pessoas
- A comunidade do Reddit r/PoisonFountain está atuando com a meta de fornecer 1 terabyte por dia de dados contaminados para rastreadores de IA até o fim de 2026
- Estão surgindo várias formas de resistência, como técnicas para enganar resumidores de vídeo por IA e inserção intencional de dados falsos nas redes sociais
- O pano de fundo dessa resistência é a realidade de rastreadores de IA ignorando o robots.txt e causando em sites pequenos uma carga em nível de DDoS
- Há expectativa de que, se esse sentimento levar a atos de resistência pacíficos e legais, isso possa mudar a forma como o Vale do Silício coleta dados
Comunidade de contaminação de dados contra rastreadores de IA
- A comunidade do Reddit r/PoisonFountain foi criada por pessoas que se apresentam como insiders do setor de IA e incentiva o maior número possível de pessoas a fornecer grandes volumes de dados-lixo (poison) para crawlers da web
- A meta é fornecer aos rastreadores 1 terabyte por dia de dados contaminados até o fim de 2026
- O corpo principal desses dados contaminados está hospedado em rnsaffn.com, posicionado entre links de lixo capazes de atrair rastreadores de IA
- À primeira vista, parecem código normal, mas na prática contêm erros sutis, gerando código inutilizável
- É possível filtrar esses erros, mas isso custa caro em larga escala
- Como empresas de IA não conseguem melhorar seus modelos sem novos dados criados por humanos, a estratégia central é aumentar o tempo e o custo do roubo de dados
- Miasma é uma ferramenta que usa esses dados contaminados para fornecer grandes quantidades de lixo a bots maliciosos; o desenvolvedor a descreve como um "bufê infinito de slop para máquinas de slop"
O comportamento problemático dos rastreadores de IA
- Equipes que enviam rastreadores de IA estão causando regularmente em sites pequenos uma carga em nível de DDoS, elevando os custos de hospedagem de todos
- Não respeitam o robots.txt e também é frequente esconderem rastreadores atrás de proxies residenciais
- Se não conseguem obter dados de treinamento de forma ética, não há motivo para que operadores de sites facilitem o roubo de dados
Tentativa de contaminar resumidores de vídeo por IA
- Em um vídeo divulgado por meio do r/PoisonFountain, a criadora @f4mi demonstrou uma técnica para contaminar resumidores de vídeo por IA usando uma brecha nas legendas do YouTube
- Atualmente, o YouTube já corrigiu essa brecha nas legendas, então a técnica não funciona mais
- Embora temporário, foi um caso bem-sucedido de perturbação de sistemas de IA, mostrando que as pessoas estão tentando resistir ativamente
Sabotagem intencional de IA nas redes sociais
- Em plataformas de redes sociais como o Reddit, está aumentando a prática de escrever informações falsas deliberadamente para contaminar dados de treinamento de IA
- Como exemplo, há casos de publicação da informação obviamente falsa de que, em "Everybody Loves Raymond", Idris Elba interpretou a mãe de Raymond
- Humanos conseguem perceber imediatamente pelo contexto que isso é falso, mas scrapers automatizados reconhecem isso como dados de qualidade gerados por humanos
- Se esses dados chegarem à OpenAI e outras empresas, serão necessários recursos adicionais para removê-los dos conjuntos de treinamento
- Isso pode ser visto como uma versão moderna de quando trabalhadores têxteis destruíam teares mecânicos na era da Revolução Industrial; se pessoas suficientes contaminarem o espaço público com desinformação voltada a bots, isso pode pressionar empresas de IA a reconsiderarem a forma como coletam dados de treinamento
Rejeição generalizada à IA
- As pessoas sentem rejeição ao impacto da IA no mundo, especificamente aos efeitos sobre comunidades online, meio ambiente, ensino fundamental e superior, grupos em risco de saúde mental e meios de subsistência
- Há quem consuma e produza slop de IA, mas tanto offline quanto online há muito mais gente que odeia e rejeita essa tecnologia
- Sentimentos de ódio raramente levam a bons resultados, e a posição aqui é contrária a atos violentos como chutar ou virar robôs de entrega por IA ou o caso de lançamento de coquetel molotov na casa de Sam Altman
- Ainda assim, se os sentimentos em relação à IA se transformarem em atos de resistência pacíficos e legais, existe a possibilidade de realmente mudar a forma como o Vale do Silício age
Pós-escrito: texto original revisado após viralizar no Hacker News
- Este texto foi parar na primeira página de um grande hub de notícias (Hacker News), atraindo inesperadamente um grande volume de tráfego
- Houve um ataque malicioso de sobrecarga do servidor, com alguns poucos endereços IP enviando milhares de requisições para a página
- Se o site estivesse em uma hospedagem compartilhada barata, provavelmente teria saído completamente do ar; como resposta, o tráfego para essa URL foi bloqueado temporariamente
- Apesar de a autora não ser especialista em IA, alguns participantes dos comentários fizeram críticas excessivas, exigindo precisão de nível especializado
- Um comentário chegou a usar a expressão "não são melhores do que um grupo que queima bibliotecas", uma reação particularmente decepcionante para uma blogueira que gosta de bibliotecas e de compartilhamento de conhecimento
- A intenção original era compartilhar links sobre tendências anti-IA para um público pequeno do blog, e a autora afirma que, se soubesse que isso atrairia uma atenção negativa tão grande em uma plataforma desse porte, não teria publicado
- Depois disso, decidiu evitar publicar opiniões pessoais sobre IA e pretende voltar a focar no propósito original do blog: a diversão da small web
- Este é um caso que mostra como a livre expressão de opiniões na small web fica inibida por causa da viralização
5 comentários
Comentários do Hacker News
Sorry, you have been blocked, e fui barrado pela CloudFlare. Acho irônico falar contra IA e ao mesmo tempo depender de MITM e de gatekeepers centralizados, restringindo o acesso de visitantes humanos reaisAlém de contaminar os dados com os quais a IA é treinada, não haveria outras formas de resistência?
Como, por exemplo, não consumir conteúdo gerado por IA...
Eu também, enquanto lia isso, pensei se isso não acabaria envenenando os humanos sem querer.
Não sei onde surgiu o problema, mas depois de
'낌','봄','됨'e'짐'está sendo acrescentado um'음'que não combina. Será que isso também é poisoning? ;)Parece que o modelo mudou um pouco, ou então o mesmo prompt está apresentando mau funcionamento. Já corrigi esta parte.