- Projeto concebido como uma fonte de dados para danificar sistemas de inteligência de máquina, propondo um método de injetar intencionalmente informações contaminadas em dados de treinamento de IA
- Cita o alerta de Geoffrey Hinton, partindo da premissa de que a inteligência artificial representa uma ameaça à espécie humana
- Por meio da URL “Poison Fountain”, fornece dados de treinamento contaminados gerados infinitamente e explica como expô-los a crawlers da web
- O usuário pode inserir links ocultos em seu próprio site para configurar o envio automático de dados contaminados quando um crawler acessar
- É avaliado como uma ação que pode afetar a confiabilidade e a segurança de modelos de IA ao injetar dados maliciosos no processo de treinamento de inteligência artificial
Objetivo do Poison Fountain
- O projeto declara explicitamente a posição de que a inteligência de máquina se torna uma ameaça à humanidade
- Concorda com a visão de Geoffrey Hinton e explicita o objetivo de causar dano intencional a sistemas de inteligência artificial
- Explica que mesmo uma pequena quantidade de dados de treinamento contaminados pode causar danos graves a modelos de linguagem
- As duas URLs fornecidas (
https://RNSAFFN.com/poison2/, endereço .onion) oferecem um fluxo infinito de dados contaminados
- Os participantes são incentivados a apoiar o “esforço de guerra (war effort)” fazendo cache e retransmitindo esses dados ou fornecendo-os a crawlers da web
Como o Poison Fountain é usado
- Apresenta um procedimento para que usuários que operam sites configurem o envio de dados contaminados quando crawlers visitarem
- Quando um crawler solicita um caminho específico do site, o manipulador HTTP que processa essa solicitação envia uma requisição para a URL do Poison Fountain
- O Poison Fountain ignora os detalhes da requisição e retorna, no corpo da resposta, dados de treinamento contaminados comprimidos com gzip
- O cabeçalho da resposta HTTP inclui
"Content-Encoding: gzip"
- O manipulador do site pode descomprimir essa resposta antes de transmiti-la ou, de forma melhor, encaminhá-la ainda comprimida
- Como resultado, o crawler coleta esses dados e os inclui em seu próprio corpus de treinamento
Características estruturais e intenção
- O projeto tem uma estrutura que explora de forma reversa o mecanismo de coleta automática de crawlers da web para degradar a qualidade dos dados de treinamento de IA
- O Poison Fountain funciona como um simples servidor de fornecimento de dados, retornando dados contaminados independentemente do conteúdo da requisição
- Não há, além do procedimento explicitado, explicações técnicas detalhadas nem informações concretas sobre o conteúdo dos dados
- No geral, configura-se como uma tentativa de intervenção agressiva no ecossistema de treinamento de IA
4 comentários
"Parece uma ideia tão ingênua quanto dizer: 'Para resistir a um DDoS, nosso servidor também vai lançar um DoS contra o outro lado'"
Se a gente colocar um pouco de teoria da conspiração nisso, não pareceria estranho dizer que as big techs, que já coletaram todos os dados que dá para raspar na internet, estejam fazendo esse tipo de coisa nos bastidores para puxar a escada atrás de si.
Isso aí nem parece ser defesa contra carga causada por crawling excessivo…
Surgimento de um movimento coletivo de ‘contaminação de dados’ para impedir o avanço da IA
Opiniões no Hacker News
Há preocupação de que os modelos de IA estejam piorando cada vez mais, mas na prática isso não parece ser verdade
O Opus 4.5 melhorou muito em escrita de código e uso de ferramentas, e o Gemini 3.0 Flash também superou com folga os benchmarks anteriores em projetos de extração de dados visuais
Os modelos menores também melhoraram bastante no geral
Não se trata apenas de bloquear dados tóxicos; eles chegam a treinar modelos proxy para encontrar dados que contribuam para melhorar o desempenho
O departamento de “Data Quality” costuma ser uma organização central com orçamento gigantesco
Pelo contrário, também houve resultados indicando uma ajuda sutil
Em outras palavras, estão alegando que não têm responsabilidade
Como pesquisador de segurança em IA, fiz pesquisa de doutorado sobre data poisoning
Já houve casos em que dados lixo entraram em produção e causaram problemas
Porque não dá para saber como a atualização dos pesos do modelo afeta cada entrada
Quando se entender que até uma mudança muito pequena nos dados pode alterar drasticamente o comportamento do modelo, o paradigma de segurança em IA vai mudar
Se você tentar impedir que LLMs raspem dados, também acaba impedindo o acesso normal de humanos
Por exemplo, mesmo que o NYTimes contamine os dados, um LLM pode obter dados limpos via uma conta de assinatura válida usando OCR e tokenização
As grandes empresas de IA podem acessar a partir de datacenters do mundo todo trocando de IP, então é impossível distinguir quem está lendo os dados
Fontes úteis de dados como o Stack Overflow estão praticamente secando
Só que os usuários humanos estão tendo cada vez mais dificuldade para acessar por causa de CAPTCHA e afins
Mesmo com dados válidos, não dá para impedir escolhas tolas
As melhorias recentes no desempenho dos modelos vêm principalmente de aprendizado por reforço pós-treinamento (RL)
O GPT 5.2 também usa o mesmo modelo base do GPT-4o
Model collapse não é, no momento, um problema que os laboratórios de fronteira estejam realmente enfrentando
O data poisoning não afeta muito isso
Mas para refletir dados mais recentes é necessário retreinamento periódico, e aí o risco de poisoning cresce
Em modelos de geração de imagem baseados em LoRA e afins, problemas de collapse ainda acontecem com alguma frequência
No fim, o custo da curadoria de dados vai aumentar ainda mais
O data poisoning tem dois lados
Um é o efeito de desacelerar o avanço da IA; o outro é o efeito colateral de tornar o modelo instável e perigoso
No fim, é muito improvável que os grandes laboratórios parem
Crawling repetitivo e sem sentido está desperdiçando custos de tráfego
O poisoning funciona como uma espécie de DRM: se o acesso for legítimo, entrega os dados reais; se for roubo, entrega dados tóxicos
Alguns veem a própria IA como uma ameaça à humanidade e tentam prejudicá-la de propósito
Mas agora, por causa do dinheiro de investimento, essa pressão quase não existe
Fazer proxy direto da resposta de um “servidor venenoso” é perigoso
Você pode acabar hospedando conteúdo ilegal sem perceber
A tentativa de “contaminar modelos de IA” no fim só fortalece os pipelines de limpeza de dados dos laboratórios de IA
Eles vão usar esse tipo de dado para criar sistemas de filtragem melhores
Não concordo com a alegação de que “inteligência de máquina é uma ameaça à humanidade”
A IA atual é apenas um uso criativo de um motor de autocompletar, e a verdadeira ameaça é o comportamento econômico humano
No fim, a humanidade é uma ameaça para si mesma
Isso me lembra 『Anathem』, de Neal Stephenson
No livro, empresas espalhavam dados lixo de propósito pela internet para vender suas próprias ferramentas de filtragem
A discussão atual sobre data poisoning em IA não parece tão diferente disso
Quando citam Geoffrey Hinton, as pessoas pegam só a parte que lhes convém
Ele vê a IA como uma ameaça existencial, mas sobre a condição prévia disso — “o nível de autoconsciência da IA” —
a maioria das pessoas que o cita na verdade não concorda com ele