1 pontos por GN⁺ 2026-01-19 | 1 comentários | Compartilhar no WhatsApp
  • A história explora o fenômeno em que conteúdo gerado por IA passou a ocupar uma parte significativa das interações na internet
  • A partir de uma discussão no HackerNews sobre se um projeto open source foi gerado por IA, o autor observou padrões em que até os comentários pareciam ter sido escritos por IA
  • No passado, na era do IRC e dos fóruns phpBB, o foco era a interação entre pessoas reais, mas hoje imagens, comentários e código criados por IA se misturam ao cotidiano
  • Também em plataformas como o LinkedIn, ele viu casos em que fotos de empresas manipuladas por IA eram publicadas como se fossem posts reais de funcionários
  • O autor levanta a preocupação de que o avanço tecnológico esteja caminhando menos para o compartilhamento de conhecimento humano e mais para conversas entre bots e reempacotamento comercial de conteúdo

Debate no HackerNews e percepção do problema

  • O autor encontrou no HackerNews um projeto open source publicado por um usuário
    • Nos comentários, vários usuários anônimos suspeitaram que aquele código talvez não tivesse sido gerado por IA
    • Seguiram-se observações de que a linha do tempo dos commits e o estilo dos comentários no código pareciam coisa gerada por IA
  • O autor não é contra o uso de IA em si, mas enfatiza que em projetos open source, o uso de IA deveria ser informado explicitamente
    • Como a maioria dos participantes da internet é anônima, é difícil verificar especialização ou autenticidade
    • LLMs são úteis para tarefas simples, mas podem trazer riscos em problemas complexos ou casos de borda

Marcas de IA visíveis no padrão dos comentários

  • O autor também encontrou um estilo típico de IA nos comentários do próprio autor do projeto
    • Ex.: uso excessivo de em-dash (—), expressões pouco naturais como “you are absolutely right”
    • Repetição de estruturas de frase típicas de IA, como “let me know if you want to [do that thing] or [explore this other thing]”
  • Como essas expressões diferem dos hábitos reais de linguagem humana, isso passou a gerar dúvida se o interlocutor era mesmo uma pessoa real

A percepção da ‘teoria da internet morta’

  • A partir dessa experiência, o autor se lembrou da Dead Internet Theory
    • Essa teoria afirma que, desde por volta de 2016, grande parte da internet passou a ser preenchida por interações entre bots e conteúdo gerado por máquinas
    • O objetivo desse conteúdo estaria concentrado em venda de produtos ou manipulação de SEO, entre outros interesses comerciais

Contraste entre a internet do passado e a atual

  • No começo dos anos 2000, na época do IRC e dos fóruns phpBB, o centro era o aprendizado e a troca entre pessoas reais
    • O autor chama esse período de “Internet University” e relembra ter aprendido redes, sistemas operacionais, jogos e desenvolvimento web
    • Naquela época, havia a confiança de que o outro lado era uma pessoa
  • Hoje, porém, vivemos uma realidade em que imagens e comentários gerados por IA se misturam, tornando difícil distinguir o que é real do que é falso

Preocupações com a expansão de conteúdo gerado por IA

  • No LinkedIn, o autor viu fotos de escritório manipuladas por IA publicadas por funcionários reais de empresas
    • Elementos como mãos estranhas e textos sem sentido denunciavam que as imagens eram geradas por IA
    • Levanta-se até a possibilidade de que as pessoas nas fotos nem existam
  • Em Facebook, Xitter e TikTok, também se espalha conteúdo falso gerado por IA
    • Ex.: fotos de pessoas gigantes construindo pirâmides, vídeos transmitindo determinadas mensagens políticas
  • O autor descreve ter sentido tristeza e impotência diante dessa realidade
    • Com a IA cada vez mais acessível ao público, há uma inundação de “AI-slop” (lixo de IA)
    • As pessoas deixaram de escrever textos ou código diretamente e entraram em uma era em que delegam isso a agentes de IA

Ceticismo sobre o futuro da tecnologia e do conhecimento humano

  • O autor ainda ama tecnologia e engenharia de software, mas
    afirma que a internet de hoje está se transformando em um espaço em que bots conversam com bots
  • O conhecimento humano está sendo reempacotado em conteúdo comercial do tipo “10 passos para resolver seus problemas do dia a dia”,
    e o sentido original do compartilhamento de conhecimento está se perdendo

1 comentários

 
GN⁺ 2026-01-19
Comentários do Hacker News
  • Há pouco tempo, meus pais caíram em um vídeo falso do YouTube feito com IA. Era um vídeo de um “policial racista” se comportando mal, e no começo até eu fiquei em dúvida porque parecia real. Pesquisei e não havia fonte, só reuploads. Na descrição do canal estava escrito algo como “alguns vídeos são reencenações com IA de eventos reais”, mas não dava para acreditar nisso de jeito nenhum. É muito triste que esse tipo de conteúdo esteja alimentando divisão por causa da receita de anúncios do YouTube

    • Conteúdo racista tem demanda maior que a oferta. Só a realidade não basta para manter a indignação, então esses vídeos continuam sendo produzidos
    • Dá para perceber vídeos de IA só olhando o histórico de postagens da conta. Eles aparecem com frequência demais, de forma repetitiva, sem consistência de tema ou cenário. Mesmo que a tecnologia avance, acho que esse padrão não vai desaparecer
    • Ultimamente tenho passado tempo demais no subreddit RealOrAI. Cada vez que erro, fico ansioso e acabo vendo mais para tentar distinguir melhor. Mas talvez agora a gente tenha que aceitar a realidade de que não dá mais para diferenciar o real do falso
    • Na verdade, essa preocupação não é nova. Mesmo antes já era comum causar divisão com fotos manipuladas ou vídeos fora de contexto. A IA só tornou isso mais fácil
    • Eu queria que o Google marcasse automaticamente os vídeos que contêm conteúdo gerado por IA
  • Concordo totalmente com a ideia de que “isso não é uma rede social”. Antigamente, “mídia social” significava um espaço para interagir com amigos da vida real, mas hoje virou um termo que inclui até fóruns como o Reddit. Como resultado, quase não restaram espaços de interação social de verdade

    • Hoje quem cumpre esse papel é o Discord. Como são comunidades por convite, não existe feed público, e pessoas reais fazem a moderação diretamente. Meus amigos da época do IRC também migraram todos para o Discord. Quando a empresa abrir capital um dia, acho que vamos usar alternativas como o Matrix
    • Originalmente, “social media” era uma rede para compartilhar conteúdo diretamente com amigos. Mas quando o Facebook mudou para um modelo centrado em reshares, isso virou uma plataforma de consumo de conteúdo aleatório, e não de atualizações dos amigos. O HN, como não tem recurso de amizade, está mais para um fórum
    • TikTok e Instagram também são chamados de “sociais”, mas a maioria das pessoas não posta nada. São só plataformas de consumo de mídia
    • Na verdade, eu mesmo não uso Discord, então não sei bem. Para mim ele parece só uma versão corporativa do IRC, então não entendo por que faz tanto sucesso
    • A própria Meta disse que menos de 10% dos usuários interagem com pessoas que realmente conhecem. A mídia social de hoje é só “entretenimento de rolagem”
  • É um engano achar que ninguém usa em dash (—). Eu uso há muito tempo. Expressões como “you’re absolutely right” também são usadas entre amigos como piada sarcástica com frequência. Para quem cresceu no Reino Unido, isso soa natural

    • Hoje em dia é irritante que até usar boa tipografia faça as pessoas acharem que um texto foi escrito por LLM. Eu já usava en dash e em dash muito antes. Com a Compose key, até digitar fica fácil
    • O problema não é o em dash em si. Como inglês não é minha língua nativa, pratiquei bastante escrevendo em blog, e testei várias formas porque a presença ou ausência de espaços muda a impressão que passa. No fim, a maioria das pessoas não é consistente. Se alguém escreve com gramática perfeita demais, aí sim a chance de ser IA é maior
    • Talvez por causa da educação britânica, eu uso naturalmente expressões como “you’re right, but…”
    • No boletim da nossa livraria também usamos em dash. Ele é visualmente mais limpo que ponto e vírgula e também é útil para separar frases
    • No iOS, dá para digitar fácil segurando a tecla “-”, então eu uso bastante
  • Existe um jeito simples de verificar se uma imagem foi gerada por IA.

    • A OpenAI usa metadados C2PA,
    • e o Gemini usa a marca d’água SynthID.
    • O SynthID se aplica não só a imagens, mas também a texto, e o código também está disponível publicamente
    • Mas, se você adicionar ou remover ruído com um modelo image-to-image, também dá para apagar o SynthID
    • Na prática, também tentei subir imagens do blog da OpenAI em um site de verificação, e elas não tinham metadados. Isso reduz a confiança
    • Ainda assim, o objetivo do C2PA é provar que algo é autêntico. Ele não consegue verificar todo conteúdo, mas imagens autenticadas podem até servir como prova legal
  • No fim, o problema atual é a estrutura de incentivos das plataformas.

    • No YouTube o incentivo é visualização, no LinkedIn é autopromoção, no HN é divulgação de startup.
    • Será que dá para criar uma comunidade em que IA seja inútil, baseada apenas em interação humana genuína?
    • Talvez a única resposta sejam pequenos grupos de amigos
    • Antes dava para conversar com pessoas inteligentes em fóruns phpBB gratuitos ou no IRC. Mas só agora percebo como o custo operacional e o peso da moderação eram altos
    • Esse tipo de comunidade precisa ser limitado pelo número de Dunbar (Dunbar’s number). Acima disso, ela não se sustenta sem regras e administradores
    • Hoje até vídeos imprecisos acabam virando visualizações e receita publicitária. A plataforma não se responsabiliza
    • Talvez funcionasse se anúncios fossem totalmente proibidos e só existisse um feed centrado em amigos, sem feed global, mas a UX pioraria
    • No fim, a raiz do problema é o modelo de internet baseado em publicidade. O problema do Twitter tem mais a ver com esse limite estrutural do que com Elon Musk
  • Acho que não deveria existir obrigação de declarar se IA foi usada ao publicar código open source. Esse tipo de exigência só desestimula a criação. As pessoas querem compartilhar o código que escreveram, não ficar provando que “não usaram IA”

    • Mas em alguns casos o autor continua insistindo que “não usou IA”, mesmo quando o código tem sinais claros de geração por IA, e isso chega a dar uma sensação de gaslighting
  • Fico curioso se existe alguma plataforma de mídia social que proíba IA. Talvez desse para barrar via metadados de imagem ou análise de comportamento do usuário

    • Se surgir uma plataforma assim, ela vai virar o paraíso do adversarial training
    • O Bluesky não proíbe oficialmente, mas a comunidade é muito hostil à IA, então quase não se vê esse tipo de conteúdo
    • Dizem que o novo Vine que está voltando vai proibir explicitamente conteúdo de IA
    • Lugares como Mastodon.art proíbem IA de forma clara
    • No fim, dá para existir comunidade que barra IA só com pressão social
  • Espero que, quando todo o conteúdo online passar a ser feito por IA, os humanos voltem a procurar a realidade

    • Essa mudança já está acontecendo aos poucos. Antes era “se não tem foto, eu não acredito”, mas agora até foto pode ser manipulada, então eu só tiro foto mesmo para guardar lembranças reais
    • Mas também é bem possível que muita gente acabe satisfeita com interações com IA
    • Hoje as pessoas já não largam o celular; se a IA começar a produzir conteúdo otimizado, elas vão se prender ainda mais
    • Ainda assim, é um pensamento reconfortante
  • Agora já estamos vivendo uma era além do teste de Turing. Se não conseguimos distinguir humanos de IA, talvez isso não signifique que a IA ficou mais inteligente, e sim que nossas conversas online ficaram rasas

    • Mas o verdadeiro teste de Turing não é apenas enganar alguém; é fazer com que um interrogador conversacional (interrogator) não consiga diferenciar. Os LLMs de hoje ainda não chegaram nesse ponto
    • Texto carrega pouca informação e ainda transmite uma sensação de confiança por parecer “escrito por uma pessoa”, então é fácil se deixar enganar. Por isso, IA baseada em texto é especialmente perigosa. Hoje em dia às vezes até em ligação telefônica eu fico em dúvida se estou falando com uma pessoa ou com um robô
    • No fim, precisamos de uma visão equilibrada, do tipo “por um lado…” e “por outro lado…”
  • Eu chamo isso de “efeito tapete”. Quando vejo um vídeo ou uma conversa com estrutura perfeitamente alinhada, fica uma sensação artificial. Como nos tapetes marroquinos, é preciso deixar um pouco de imperfeição de propósito para parecer humano. Mas acho que até esse tipo de pista vai desaparecer em breve