- A história explora o fenômeno em que conteúdo gerado por IA passou a ocupar uma parte significativa das interações na internet
- A partir de uma discussão no HackerNews sobre se um projeto open source foi gerado por IA, o autor observou padrões em que até os comentários pareciam ter sido escritos por IA
- No passado, na era do IRC e dos fóruns phpBB, o foco era a interação entre pessoas reais, mas hoje imagens, comentários e código criados por IA se misturam ao cotidiano
- Também em plataformas como o LinkedIn, ele viu casos em que fotos de empresas manipuladas por IA eram publicadas como se fossem posts reais de funcionários
- O autor levanta a preocupação de que o avanço tecnológico esteja caminhando menos para o compartilhamento de conhecimento humano e mais para conversas entre bots e reempacotamento comercial de conteúdo
Debate no HackerNews e percepção do problema
- O autor encontrou no HackerNews um projeto open source publicado por um usuário
- Nos comentários, vários usuários anônimos suspeitaram que aquele código talvez não tivesse sido gerado por IA
- Seguiram-se observações de que a linha do tempo dos commits e o estilo dos comentários no código pareciam coisa gerada por IA
- O autor não é contra o uso de IA em si, mas enfatiza que em projetos open source, o uso de IA deveria ser informado explicitamente
- Como a maioria dos participantes da internet é anônima, é difícil verificar especialização ou autenticidade
- LLMs são úteis para tarefas simples, mas podem trazer riscos em problemas complexos ou casos de borda
Marcas de IA visíveis no padrão dos comentários
- O autor também encontrou um estilo típico de IA nos comentários do próprio autor do projeto
- Ex.: uso excessivo de em-dash (—), expressões pouco naturais como “you are absolutely right”
- Repetição de estruturas de frase típicas de IA, como “let me know if you want to [do that thing] or [explore this other thing]”
- Como essas expressões diferem dos hábitos reais de linguagem humana, isso passou a gerar dúvida se o interlocutor era mesmo uma pessoa real
A percepção da ‘teoria da internet morta’
- A partir dessa experiência, o autor se lembrou da Dead Internet Theory
- Essa teoria afirma que, desde por volta de 2016, grande parte da internet passou a ser preenchida por interações entre bots e conteúdo gerado por máquinas
- O objetivo desse conteúdo estaria concentrado em venda de produtos ou manipulação de SEO, entre outros interesses comerciais
Contraste entre a internet do passado e a atual
- No começo dos anos 2000, na época do IRC e dos fóruns phpBB, o centro era o aprendizado e a troca entre pessoas reais
- O autor chama esse período de “Internet University” e relembra ter aprendido redes, sistemas operacionais, jogos e desenvolvimento web
- Naquela época, havia a confiança de que o outro lado era uma pessoa
- Hoje, porém, vivemos uma realidade em que imagens e comentários gerados por IA se misturam, tornando difícil distinguir o que é real do que é falso
Preocupações com a expansão de conteúdo gerado por IA
- No LinkedIn, o autor viu fotos de escritório manipuladas por IA publicadas por funcionários reais de empresas
- Elementos como mãos estranhas e textos sem sentido denunciavam que as imagens eram geradas por IA
- Levanta-se até a possibilidade de que as pessoas nas fotos nem existam
- Em Facebook, Xitter e TikTok, também se espalha conteúdo falso gerado por IA
- Ex.: fotos de pessoas gigantes construindo pirâmides, vídeos transmitindo determinadas mensagens políticas
- O autor descreve ter sentido tristeza e impotência diante dessa realidade
- Com a IA cada vez mais acessível ao público, há uma inundação de “AI-slop” (lixo de IA)
- As pessoas deixaram de escrever textos ou código diretamente e entraram em uma era em que delegam isso a agentes de IA
Ceticismo sobre o futuro da tecnologia e do conhecimento humano
- O autor ainda ama tecnologia e engenharia de software, mas
afirma que a internet de hoje está se transformando em um espaço em que bots conversam com bots
- O conhecimento humano está sendo reempacotado em conteúdo comercial do tipo “10 passos para resolver seus problemas do dia a dia”,
e o sentido original do compartilhamento de conhecimento está se perdendo
1 comentários
Comentários do Hacker News
Há pouco tempo, meus pais caíram em um vídeo falso do YouTube feito com IA. Era um vídeo de um “policial racista” se comportando mal, e no começo até eu fiquei em dúvida porque parecia real. Pesquisei e não havia fonte, só reuploads. Na descrição do canal estava escrito algo como “alguns vídeos são reencenações com IA de eventos reais”, mas não dava para acreditar nisso de jeito nenhum. É muito triste que esse tipo de conteúdo esteja alimentando divisão por causa da receita de anúncios do YouTube
Concordo totalmente com a ideia de que “isso não é uma rede social”. Antigamente, “mídia social” significava um espaço para interagir com amigos da vida real, mas hoje virou um termo que inclui até fóruns como o Reddit. Como resultado, quase não restaram espaços de interação social de verdade
É um engano achar que ninguém usa em dash (—). Eu uso há muito tempo. Expressões como “you’re absolutely right” também são usadas entre amigos como piada sarcástica com frequência. Para quem cresceu no Reino Unido, isso soa natural
Existe um jeito simples de verificar se uma imagem foi gerada por IA.
No fim, o problema atual é a estrutura de incentivos das plataformas.
Acho que não deveria existir obrigação de declarar se IA foi usada ao publicar código open source. Esse tipo de exigência só desestimula a criação. As pessoas querem compartilhar o código que escreveram, não ficar provando que “não usaram IA”
Fico curioso se existe alguma plataforma de mídia social que proíba IA. Talvez desse para barrar via metadados de imagem ou análise de comportamento do usuário
Espero que, quando todo o conteúdo online passar a ser feito por IA, os humanos voltem a procurar a realidade
Agora já estamos vivendo uma era além do teste de Turing. Se não conseguimos distinguir humanos de IA, talvez isso não signifique que a IA ficou mais inteligente, e sim que nossas conversas online ficaram rasas
Eu chamo isso de “efeito tapete”. Quando vejo um vídeo ou uma conversa com estrutura perfeitamente alinhada, fica uma sensação artificial. Como nos tapetes marroquinos, é preciso deixar um pouco de imperfeição de propósito para parecer humano. Mas acho que até esse tipo de pista vai desaparecer em breve