2 pontos por GN⁺ 2 시간 전 | 2 comentários | Compartilhar no WhatsApp
  • AI Slop é o ato de empurrar conteúdo gerado por IA de baixo esforço para pessoas que não precisam dele, e mesmo quando nasce de boa intenção, isso embaralha o sinal das comunidades online e desgasta seus membros
  • Espalhar por vários subreddits e Slacks repositórios no GitHub, posts de blog, vídeos e e-books criados apenas executando prompts tende a ser mais um peso para a comunidade do que uma contribuição
  • Antes de compartilhar, é preciso verificar se isso é realmente útil, se quem criou usa de fato, se há documentação e testes suficientes e se existe disposição para assumir issues e PRs
  • Um bom uso de IA é algo como Built with AI, not by AI, em que uma pessoa pensa, orienta e valida para tornar possível uma contribuição que antes seria difícil; projetos como o Hardwood, de Gunnar Morling, entram nessa categoria
  • Para respeitar a comunidade, é preciso primeiro entender o ambiente, compartilhar apenas o que for relevante e deixar claro se IA foi usada e em que medida; caso contrário, você transfere um impacto desnecessário para revisores e leitores

O impacto de compartilhar conteúdo gerado por IA na comunidade

  • Está aumentando o número de pessoas que compartilham resultados feitos com IA na internet, e muitos deles parecem ser materiais que caberiam no espaço pessoal de quem criou, não algo para distribuir a uma comunidade ampla
  • A posição não é contrária à IA em si; rejeitar a IA seria, na visão do autor, ir contra a direção dos tempos
  • O problema é que, mesmo sem má intenção, comunidades valiosas estão sendo lentamente enfraquecidas sob o ataque de conteúdo gerado por IA de baixa qualidade
  • Resultados como “reescrevi o Kafka em COBOL”, “escrevi um post sobre Kafka”, “fiz um vídeo sobre Kafka” ou “publiquei um e-book sobre Kafka”, se na prática forem saídas de baixa qualidade geradas pelo Claude, dificilmente podem ser vistos como material útil de aprendizado ou contribuição para a comunidade
  • Pedir stars para um novo repositório no GitHub feito apenas com um prompt e execução, ou divulgar indiscriminadamente textos e repositórios gerados por IA em vários subreddits e grupos de Slack, acaba impondo um peso à comunidade

O ponto em que é preciso parar antes de compartilhar

  • O padrão recorrente costuma ser o seguinte
    • a pessoa descobre o agentic coding e fica profundamente impressionada
    • sobe o projeto para o GitHub
    • manda a IA escrever um post entusiasmado no blog e depois o compartilha em todos os subreddits e grupos de Slack que conseguir encontrar, independentemente da relevância
  • É preciso parar depois da segunda etapa e pensar com profundidade sobre o que foi criado e por que se quer compartilhar aquilo
  • Se o motivo for apenas “porque é legal”, isso não basta
    • agentic coding já não é mais novidade; agora passou a fazer parte da forma de trabalhar
    • o simples fato de a IA conseguir escrever algo porque você pensou no prompt não significa muita coisa
  • Há perguntas que devem ser feitas antes de compartilhar amplamente
    • isso é realmente útil?
    • quem criou está usando isso de verdade?
    • a documentação está boa o suficiente?
    • está em estado utilizável?
    • o código foi revisado repetidamente e testado de forma suficiente?
    • ou foi apenas algo feito de uma vez com o Claude, que no dia seguinte já pareceu uma ideia não tão boa assim?
  • Se for software, é preciso estar pronto para assumir a responsabilidade por algo em que outras pessoas possam abrir issues e enviar PRs
  • Se for texto, deve ser algo que o próprio autor gostaria de ler e que realmente ajude no entendimento acumulado da comunidade
  • Se for apenas texto que um LLM gerou como se estivesse autocompletando, o resultado pode ser algo que nem quem criou quer escrever nem quem lê quer ler

Por que isso é um problema

  • AI slop aumenta o ruído nas comunidades e torna cada vez mais difícil distinguir o sinal
  • Espaços como o Reddit estão ficando cobertos por resultados de IA feitos em vibe coding e, em muitos casos, mesmo quando surgem de boa intenção, não contribuem com a comunidade
  • Quanto mais a comunidade é contaminada por esse tipo de conteúdo, mais seus membros se cansam de ter que atravessar AI slop e acabam se afastando
  • Quando os membros se afastam, surge o risco de uma espiral descendente em que a vitalidade orgânica da comunidade diminui ainda mais
  • Se essa tendência continuar, as comunidades online podem murchar e morrer, ou convergir para algo distópico, porém comum, como o MoltBook, onde agentes de IA “conversam” entre si sem humanos

Bom uso de IA e mau AI slop

  • A expressão AI Slop tem sido amplamente usada recentemente
  • Em geral, ela se refere de forma negativa ao ato de empurrar materiais feitos com pouco esforço por IA para pessoas a quem esse material não ajuda
  • No entanto, algumas pessoas chamam de “AI Slop” tudo o que se escreve sobre IA, mesmo quando não foi escrito por IA, e essa postura pode se sobrepor fortemente a uma rejeição à IA em si
  • Materiais produzidos com ajuda de IA não são ruins por natureza
    • a questão central é para que eles estão sendo usados
  • Um bom uso de IA é aquele que torna possível fazer algo que antes não dava para fazer e permite que alguém que antes não conseguiria contribuir passe a contribuir com a comunidade
  • Quando existe atenção humana e boa intenção por trás, o uso de IA pode claramente ter efeito líquido positivo
  • O mau AI slop é como jogar lixo por cima do muro com objetivos que não têm relação com o desenvolvimento da comunidade
    • spam
    • postagens de baixa qualidade feitas para gerar engajamento
    • ruído descuidado jogado em espaços que não são apropriados para esse objetivo

Critérios para compartilhar

  • Compartilhar conteúdo online é algo excelente e foi um dos elementos importantes que fizeram a internet ser o que é hoje
  • O ponto essencial é entender o que se compartilha, com quem e por quê
  • Na era do Geocities, adolescentes nerds criavam suas próprias homepages, com GIFs animados de Under Construction, contadores de visitas e banners de webring
  • Criar uma homepage dessas não significava que ela precisava ser compartilhada com todo mundo que você encontrasse
    • você podia mostrar para amigos ou para os pais
    • outra questão era se aquilo valia ser compartilhado com a internet em geral
  • O mesmo critério vale para conteúdo gerado por IA
    • seja um app feito em vibe coding ou um post de blog, o fato de ter sido criado não significa que precisa ser compartilhado com todo mundo
  • No começo de 2026, a internet passou por um choque coletivo ao descobrir o poder do Claude Opus 4.5, e isso, por si só, foi algo muito impressionante
  • Quando as pessoas descobrem algo novo, elas querem compartilhar com os amigos
  • Quando isso se combina com o marketing exagerado de IA, que já está superaquecido, subreddits e Slacks acabam sendo inundados por conteúdo gerado por IA

O que deve ser compartilhado

  • Não feito por IA, mas com IA

    • a distinção “Built with AI, not by AI”, presente em um post recente de Gunnar Morling, é o ponto central
    • IA é uma ferramenta poderosa, e não incluí-la na caixa de ferramentas de trabalho chega perto, na visão do autor, de negligência profissional
    • mas IA continua sendo apenas uma ferramenta, e pensar, orientar e verificar continuam sendo tarefas humanas
    • Gunnar Morling usou IA para criar o Hardwood, um novo parser para Apache Parquet
    • Hardwood é um projeto que já levou 4 meses até aqui e tem um roteiro sólido, uma comunidade em crescimento e um design cuidadoso
    • projetos assim não devem virar alvo de crítica apenas por terem usado IA
  • Contribuição

    • é preciso avaliar se aquilo que se quer compartilhar realmente contribui com a comunidade
    • é preciso verificar se, no fundo, não passa de um resultado de prompt inserido em uma ferramenta de agentic coding
    • se outra pessoa puder executar o mesmo prompt e obter resultado parecido, é razoável duvidar de que isso, por si só, seja uma contribuição significativa para o tema em questão
    • prompt engineering é divertido e um objeto de estudo interessante, mas pode ser algo periférico ao assunto principal tratado pela comunidade
    • é parecido com ficar jogando móveis estilo Ikea em uma comunidade de entusiastas de marcenaria fina porque você quer mostrar um conjunto interessante de formões
    • não é necessário compartilhar todo app legal que dá para fazer com Claude
    • ferramentas descartáveis e pequenos scripts podem ser ok; em parte, a internet também foi construída em cima de scripts estranhos e pequenos que as pessoas fizeram e compartilharam
    • mas, nesse caso, colocar isso em um gist ou no GitHub já é suficiente, sem precisar de um post de lançamento como se fosse a volta de Steve Jobs
  • Respeito pela comunidade

    • em plataformas online como Usenet, Reddit e lobste.rs, a regra básica de etiqueta é primeiro “observar em silêncio (lurk)”
    • é preciso permanecer um tempo, ler os posts e entender o clima daquele espaço
    • o que é aceito ou não em uma comunidade é definido pelos seus membros, não por um indivíduo
    • mesmo que você tenha criado em vibe coding uma nova implementação do protocolo Kafka, se não tiver certeza de que as pessoas vão querer ver isso, é preciso ler o ambiente
    • se houver dúvida, o melhor é perguntar
    • outra forma de respeitar a comunidade é declarar de forma muito aberta e clara se IA foi usada na contribuição, como foi usada e em que partes foi usada
  • A assimetria da besteira

    • é preciso observar que impacto uma contribuição causa nos outros
    • a energia necessária para refutar besteira é de uma ordem de magnitude maior do que a energia necessária para produzi-la
    • quando alguém despeja um texto sem sentido, transfere para o leitor o peso de descobrir por conta própria que aquilo não vale a leitura
    • quando alguém joga um PR complexo em um projeto sem o devido cuidado, transfere para o revisor o peso de examinar o código e explicar por que ele não pode ser integrado
    • nesses casos, a comunidade fica melhor sem aquela contribuição
    • com o aumento de AI slop no pior sentido, comunidades e projetos estão tendo dificuldade para lidar com o impacto das contribuições
    • alguns chegaram a adotar políticas que proíbem com rigor qualquer coisa tocada por IA
    • projetos como o Vouch surgiram tentando resolver esse problema, mas a situação já passou de um ponto difícil de reverter, e ainda não está claro para onde isso vai
    • antes da IA, o esforço necessário para contribuir funcionava como uma espécie de prova de trabalho
    • esse esforço fazia algumas pessoas desistirem ou demonstrava comprometimento real, e as comunidades conseguiam absorver até contribuições de baixa qualidade
    • pessoas bem-intencionadas e dispostas a aprender podiam receber mentoria e se tornar membros importantes, enquanto gente quase indistinguível de spam ainda aparecia em volume administrável

Com grandes poderes vêm grandes responsabilidades

  • comunidades são fortes, mas frágeis
  • o poder dado por LLMs e ferramentas de agentic coding pode ser explorado com prazer
  • também é possível aproveitar essa sensação de “isso é muito incrível” que essas ferramentas provocam
  • mas é preciso respeitar a comunidade e compartilhar apenas o que for realmente relevante
  • produções comparáveis a desenhos de giz de cera de jardim de infância talvez fiquem melhor pregadas na geladeira da cozinha

2 comentários

 
GN⁺ 1 시간 전
Opiniões no Hacker News
  • Praticamente larguei o Reddit depois que fizeram experimentos com agentes para farmar karma e publicidade disfarçada, e não visito mais
    Ao ler os textos escritos por esses agentes, senti que, do ponto de vista do leitor, seria impossível perceber que foram escritos por um computador, e fiquei um pouco assustado ao ver tanta gente, ou outros bots, conversando com eles normalmente
    O Hacker News ainda não chegou a esse ponto, mas sei que muitos “usuários” aqui também são LLMs. As comunidades online estão claramente morrendo, e espero que, nesse processo, as comunidades do mundo real voltem a viver

    • Por um tempo, houve muitos posts experimentais no Reddit feitos com o ChatGPT para gerar posts que provocavam indignação, e depois eram editados para dizer que eram falsos e tinham sido escritos pelo ChatGPT
      Acho que a intenção era dar uma lição, fazendo quem reagiu a histórias de IA se sentir bobo, mas a maioria parecia falsa de um jeito quase inacreditável. Mesmo assim, isso não importava: mesmo depois da admissão de que eram falsos, os posts continuavam populares e os comentários continuavam chegando
      Nos subreddits de conselhos, as pessoas continuavam dando orientações sobre a situação, e alguns comentários diziam que tinham visto o aviso de que era falso, mas que ainda assim queriam continuar discutindo
      Isso mostra bem como o Reddit funciona. A veracidade do post não importa; o grupo ativo de comentaristas dos subreddits populares só quer assunto para discutir e, na maioria das vezes, algo com que se irritar. Olhando para trás, isso é natural: mesmo antes da IA, posts enganosos já eram há anos a forma mais fácil de farmar karma
    • Sem prova de identidade ou garantia baseada em rede de confiança, acho que comunidades públicas de chat estão praticamente mortas. Ou então vão virar algo só um pouco melhor que a seção de comentários de sites de notícias: ativa, mas sem valor
      Ainda participo de várias comunidades online que funcionam bem, mas a diferença é que ali existem relações contínuas construídas ao longo do tempo e participação espalhada por várias plataformas
      Esse relógio também vai acabar um dia, mas, enquanto a rede de relações mistura chat por texto, chamadas de voz e vídeo, jogos online e atividades presenciais, ainda é mais difícil fingir ser um usuário falso
      Mesmo assim, concordo que a era de ouro das conexões online fáceis e anônimas acabou
    • Vai ser bem interessante observar esse movimento em que comunidades online morrem e comunidades presenciais podem voltar a florescer
      Como cresci antes da internet, eu historicamente sei como encontrar comunidades fora da rede, mas como mergulhei fundo na vida online desde o começo do ensino médio, enferrujei bastante nesse instinto de procurar novos clubes ou grupos no mundo real
      Felizmente tenho muitos amigos e saio com frequência, mas desejo sorte à geração mais jovem, que nunca viveu sem internet, e também quero ver como eles vão encontrar esse caminho
    • Para mim, o Reddit é um serviço quase morto. Os subreddits populares estão infestados de bots, e os de nicho estão vazios. Até em subreddits de jogos é difícil conseguir uma única resposta
    • Você já parou para refletir sobre quem foi que estragou o Reddit?
  • A deterioração da internet já vem acontecendo há anos, mas, sinceramente, não sei como seria uma solução de verdade
    A maioria das pessoas não quer passar por verificação de identidade, pagar para entrar em uma comunidade ou participar de espaços só por convite. E espaços só por convite também podem perder diversidade de pensamento bem rápido
    Ainda assim, o problema dos bots vai ficar cada vez mais difícil de aguentar, então talvez uma dessas opções seja a menos ruim. E, de quebra, gostei muito do estilo de escrita do autor

  • Administro uma comunidade criativa de nicho e, em 2022, implementei uma proibição de conteúdo gerado por IA. Porque era fácil ver o quanto isso corroeria a comunidade
    Não foi fácil. Bloqueamos contas falsas de IA todos os dias e eliminamos cerca de 600 contas de criadores de conteúdo de IA por mês
    É trabalho extra que não existia antes do surgimento desse conteúdo, e obviamente também custa mais. Tenho medo de perder essa luta

    • E se cobrassem 1 ou 5 dólares para criar uma conta? Parece uma forma relativamente simples de conter essa enxurrada
    • Ao contrário de muitas comunidades, pelo menos vocês ficaram do lado certo desde o início. Melhor proibir totalmente desde o começo do que perceber aos poucos e depois se arrepender de não ter feito isso antes
    • Eu já participei de uma pequena comunidade de escrita criativa de nicho. Foi por volta de 2021~2022, e eu não entrei por causa de IA, mas como as pessoas tinham curiosidade, fiz demonstrações de vários LLMs no fórum de conversa informal
      Mesmo explicando como funcionava, quase todo mundo pelo menos demonstrava interesse. Uma escritora disse que fazia algo parecido, porque ela própria aprendia estilo copiando à mão, letra por letra, textos de autores de que gostava. Na época, a principal preocupação era que isso fosse tecnicamente difícil de escrever
      Eu sempre dizia que estava ali para aprender e não pretendia publicar conteúdo derivado de LLM. Mas, perto do fim de 2022, pareceu que uma chave virou: quase todo mundo começou a dizer que IA e seus usuários eram claramente malignos e, sem citar meu nome diretamente, pararam de interagir comigo
      Repostavam conteúdo do Twitter cada vez mais anti-IA e criticavam submissões com IA recebidas por várias publicações. No fim, alguém repostou um tuíte dizendo que usuários de LLM deveriam morrer, e não houve uma única objeção — pelo contrário, houve muito incentivo
      Então eu simplesmente saí. Eu só tinha participado de forma positiva, respondendo e ajudando quem tinha curiosidade. Cheguei a postar uma história com ajuda de IA, mas era uma demonstração técnica para mostrar como o editor rastreava automaticamente minhas contribuições e as da IA, e as partes escritas por mim estavam claramente marcadas
      Mais tarde, as regras de submissão ganharam uma cláusula dizendo que, se julgassem que alguém enviou conteúdo escrito por IA, essa pessoa seria colocada numa lista negra para submissões em toda a comunidade. Do ponto de vista de quem já tinha demonstrado a inutilidade de LLMs e detectores de IA, ficou claro para mim que, se eu aparecesse minimamente, eles poderiam inventar motivo para me colocar nessa lista
      Eu até tinha uma história que estava escrevendo para submeter, mas abandonei. Não queria expor meu pescoço a uma caça às bruxas
      Antes disso, eu também estive bem envolvido com blockchain, e vi um processo parecido. A maioria ignorava, mas depois que saíram artigos sobre consumo de energia, de repente até qualquer associação com o tema virou um crime moral absurdo. Só que, com o tempo, quando a tese do consumo de energia se mostrou em grande parte nada demais, essa onda de ódio diminuiu
      No sentido de barrar usuários de IA, não acho que vocês vão “perder a luta”. Sempre foi legítimo que pequenas comunidades selecionem seus membros. Só acho difícil manter esse tipo de indignação artificial por muitos anos
      As alegações sobre água e energia dos datacenters de IA me parecem um problema que vai se resolver sozinho, como a crise do esterco de cavalo em Londres, e as questões de copyright também devem se acomodar até certo ponto. No fim, fora os spammers de baixa qualidade, acho que as pessoas nem vão se importar o suficiente para querer proibir isso. Claro, spammers de baixa qualidade existem aos montes
  • O equilíbrio nas comunidades online foi completamente destruído por causa dos LLMs. As pessoas querem interação humana real com outras que pensam parecido, e quem descobrir como oferecer experiências online autênticas vai vencer
    Talvez as pequenas comunidades precisem voltar. Lugares onde a confiança é construída aos poucos. Por que todo site precisa virar um monstro tentando chegar a 100 milhões de usuários para fazer IPO? Essa estrutura atrai o pior
    No Reddit, usei durante anos o mesmo nome de usuário que uso aqui, mas agora praticamente abandonei

    • Não acho que as pessoas queiram isso com intensidade suficiente para realmente fazer diferença. Mesmo antes do lixo de IA, o Reddit já vinha fazendo mudanças que reduziam a sensação de interagir com pessoas reais e até de fazer amigos
      A interface passou a destacar menos os nomes de usuário e escondeu as barras laterais que davam a cada subreddit um clima comunitário próprio. Hoje em dia, nas threads de comentários, já ouvi dizer que o Reddit esconde uma parte significativa das mensagens de outros usuários, então a pessoa pode estar falando para o vazio
      A sensação de interação real aparece melhor em fóruns antigos. Com avatares e elementos de personalização, é mais fácil aprender aos poucos quem é quem, e a cultura de textos longos também deixa transparecer a personalidade dos outros
      Mas quantas pessoas com menos de 35 ou 40 anos ainda estão entrando nesses fóruns sobreviventes? Quando se dá escolha, as pessoas acabam preferindo as recompensas de dopamina das plataformas comerciais maximizadas para engajamento e a internet centrada no smartphone, que mata a nuance
  • Talvez até seja bom que, com o aumento de comentários escritos por bots e de mídia gerada por IA indistinguível do real, os humanos acabem abandonando as redes sociais
    As redes sociais ajudaram a separar as pessoas umas das outras. Se voltarmos ao mundo real, poderemos confiar de verdade no que vemos e aproveitar o jeito de falar, as expressões e até o cheiro de outros seres humanos

    • O problema é que muitos de nós têm interesses de nicho, e não há ninguém por perto com quem conversar sobre isso, ou então somos tratados como esquisitos
      Desde criança gosto de mapas e geografia, e ainda gosto, mas nunca conheci no mundo real alguém que gostasse tanto quanto eu. Na internet, existem lugares para falar disso e compartilhar textos e fotos interessantes
    • Isso me parece ingênuo. As pessoas vão continuar em redes sociais infestadas de IA enquanto ainda as “aproveitarem”, ou pelo menos enquanto isso não as irritar o bastante para sair, e vão se afastar ainda mais da realidade
      Metade dos jovens da UE conversa regularmente com chatbots. Pessoas isoladas vão acabar indo para esses lugares
    • Algumas empresas de tecnologia viciaram um número enorme de pessoas em conteúdo tóxico de redes sociais que faz mal à saúde mental, e graças a isso uma minoria ficou muito rica
      Não acho que essas mesmas empresas e executivos, agora com ferramentas de conteúdo ainda mais poderosas nas mãos, simplesmente vão arrumar as malas e ir para casa. LLMs vão ser usados para criar caixas de Skinner que farão Facebook e Twitter parecerem comunidades saudáveis
    • Também fiz muitos amigos online, e muitos dos amigos que eu já tinha se mudaram para longe uns dos outros
      Não quero ficar limitado a só poder ser amigo de quem mora perto
    • Se já não dá mais para distinguir o real, por que as pessoas iriam embora?
  • A empresa onde trabalho é profundamente enraizada em um senso de comunidade, e tenho 100% de certeza de que, independentemente do que a big tech faça, nossas funcionalidades de comunidade existem apenas para o benefício dos usuários. Não tem zona cinzenta: é simplesmente assim
    Depois da deterioração provocada pela IA, perdemos bastante tráfego por causa dos bots. Pior ainda, perdemos usuários que antes voltavam para contribuir com os outros
    Ainda conseguimos usar de várias formas os dados comunitários expostos aos membros, então não é só prejuízo nesse aspecto, mas havia quase 30 anos de feedback positivo mostrando que a comunidade em torno da plataforma fazia bem às pessoas, e agora tudo isso está em risco
    Meu trabalho, no fim, ainda é trabalho. Há recursos premium e vários outros elementos. Mas a parte famosa dessa plataforma é o valor que se pode obter de graça, e sabemos também que muita gente usa gratuitamente por anos e, quando precisa ou tem condições, assina e em geral fica por muito tempo
    É deprimente ver as pessoas perdendo esse tipo de conexão

    • Saí de várias comunidades online porque o conteúdo de baixa qualidade e os usuários que o produzem ficaram insuportáveis
      Eu também uso IA. Acho útil. Mas quem caiu fundo nisso passou a tratar todo texto na tela não como fala humana, e sim como se fosse um chatbot
      “Reescreve esse código com a API nova” “Hã?” “Preciso disso agora, pode fazer? O ChatGPT não compila!” “Mostre primeiro o código” — e então mandam um monte enorme de lixo
      Quando digo “Posso perguntar por que decidiram fazer assim? Estou preocupado com x, y, z, então seria melhor reescrever o que está aqui”, respondem: “Foi a IA que fez e eu estou aprendendo. Não precisa reescrever, só usa essa parte”
      Se eu digo “não, obrigado”, outra pessoa acaba fazendo, e esse usuário vai embora
  • Infelizmente, como sempre, a exigência acaba sendo que todo mundo se comporte bem e reduza o ruído. Mas isso não funciona, nem no nível individual nem em escala global
    No plano pessoal, o que fazer quando um amigo ou conhecido fica enfeitiçado pela máquina caça-níquel da IA e compartilha com entusiasmo sua “obra”? Já passei por isso e fui frio e rude desde o começo, mas não adiantou. A pessoa continuou compartilhando várias produções
    Em escala global, as comunidades estão morrendo. Parece que a comunicação mundial chegou a um ponto em que gera mais custo do que benefício
    No fim dos anos 1990 e começo dos 2000, e talvez até no início dos 2010, estar mais conectado podia render bons clientes ou contratações. Hoje em dia, todos esses campos já estavam superlotados e mergulhados em competição por preço antes mesmo do ChatGPT 3 em 2022, e os LLMs, surpreendentemente, não acrescentaram tanta coisa nova — só amplificaram essa tendência

  • Uso a Usenet desde 1991. Quando a internet começou a se popularizar entre o público geral, por volta de 1995, a situação começou a piorar. No fim dos anos 1990, o spam dominou a Usenet a ponto de ela quase deixar de servir para discussões gerais
    Depois migrei para fóruns em sites, mas até hoje não acho que nenhum tenha sido tão bom quanto um leitor de notícias da Usenet. Meu favorito era o slrn
    Depois veio o Reddit, e muitos fóruns online começaram a morrer à medida que as pessoas migravam para lá
    Só hoje de manhã denunciei 4 posts no Reddit aos moderadores como lixo de IA. A categoria de denúncia aparece como “disruptive use of bots”, mas deveria ser reclassificada
    Em 2 casos, os moderadores concordaram comigo e removeram os posts cerca de 5 horas depois. Nos outros 2, ainda não houve nenhuma ação. É uma luta impossível de vencer
    Alguns posts começam com algo como “Tive esse pensamento... [parágrafos longos e desconexos] o que vocês acham?”. Você gasta 1 minuto lendo, mais 1 minuto passando o olho no resto, percebe que desperdiçou 2 minutos da vida, e ainda investe mais 30 segundos para denunciar ao moderador
    Isso explodiu nos últimos 6 meses
    Também há muitos bots de republicação para farmar karma. Alguns subreddits têm regra de não repostar o mesmo conteúdo em 30 dias ou 6 meses. Mas é ridículo ver um post ganhar 500 upvotes e, no dia seguinte, um bot repostar exatamente a mesma coisa e ganhar 300 upvotes. Parece que a fazenda de bots também dá upvote

  • Neste ponto, não acho que verificação de identidade ou prova de humanidade vá funcionar
    O que precisamos, na minha opinião, é de algo parecido com a cooperação cliente-servidor usada no CORS
    Ou seja, a API marcaria que é exclusiva para humanos, e o ambiente de execução respeitaria essa marcação e bloquearia essa chamada de API
    Não é perfeito. Como a imposição seria do lado do cliente, em teoria alguém ainda poderia criar por conta própria um ambiente de execução sem essa limitação. Mesmo assim, acho que esse é o único caminho possível daqui para frente

 
GN⁺ 2 시간 전
Opiniões no Lobste.rs
  • Já apareceu em outros envios, mas uma das coisas que mais causa fadiga mental é README escrito por IA
    Mesmo que o projeto em si seja bom, um README escrito por IA é um sinal forte para fechar a aba, e só ler já é doloroso

    • Durante anos eu lia Lobsters e HN, e de manhã, tomando café, também lia o github.com/trending, mas parei faz uns 6 meses por causa disso
    • Concordo, mas divulgar bem um projeto sempre foi uma parte difícil para desenvolvedores
      Mesmo antes dos LLMs, tirar screenshots ou GIFs e fazer um bom README já exigia bastante esforço
  • Existem fãs de chorume de IA “educado” e “polido”
    Eles dizem que têm gosto e técnica, que jamais postam irresponsavelmente chorume ruim, e que só postam o mais refinado chorume, lapidado e curado por humanos
    Também dizem que, como revisaram tudo com cuidado antes de postar, então na verdade não é chorume. Dizem que há uma diferença importante entre o chorume premium de que falam e o chorume ruim, e que, no fim das contas, até produções humanas de baixa qualidade também seriam chorume
    Dizem que as pessoas precisam usar o chorume com cuidado, eficiência e da forma correta, e que devemos continuar aprendendo e debatendo porque esse é um futuro inevitável e importante para todos
    Eles turvam a água. Acalmam, discutem minúcias das regras, criam exceções, e dizem que “nuance” é importante para distinguir usos bons e ruins do chorume. Também dizem que focar nos maus exemplos é tedioso e rude
    Dizem para discutir educadamente o bom chorume e não ser duro demais com o mau chorume. Dizem que o mau chorume na verdade nem é um grande problema, provavelmente será resolvido em breve, e que os danos são exagerados. E assim ocupam o espaço
    Se os administradores não expulsarem rapidamente esses entusiastas do chorume, logo pessoas um pouco menos educadas começam a postar chorume de forma um pouco menos educada
    Cada vez mais gente no espaço passa a ser favorável ao chorume e sufoca quem é contra. Num instante, a comunidade vira um bar de chorume. Quem poderia imaginar

    • Só para confirmar: você acha que o simples fato de o autor ter publicado esse texto no próprio blog já é turvar a água?
      Como ele menciona “administradores”, fiquei na dúvida se isso quer dizer que os admins do Lobsters deveriam banir o autor
      Tenho 99% de certeza de que essa reação é uma objeção ao autor e ao texto, mas não consigo distinguir se é uma resposta direta ao texto ou uma posição mais geral
      A única conexão com um envio específico do Lobsters é o fato de isto estar postado nesta thread de comentários, então parece que daria para colar esta frase em qualquer comentário sobre vibecoding sem mudar nada
    • Lei de Godwin
  • Resumindo, o argumento é IA é boa, chorume de IA é ruim
    Escrita bem no estilo HN, muito sarcástica

    • Não sou contra LLMs. É impressionante que computadores agora consigam entender linguagem natural, e não dá para colocar de volta no tubo a pasta de dente que já saiu
      Mas temos de lidar com as externalidades. Se você gosta de criptomoedas, não pode simplesmente ignorar o fato de que alguns dos usuários mais entusiasmados são grupos de ransomware patrocinados pelo Estado norte-coreano
      Do mesmo modo, se você gosta de LLMs, precisa olhar criticamente para o motivo de eles serem usados com mais facilidade para prejudicar ecossistemas online do que para enriquecê-los
      Este texto parece perigosamente próximo de “meu uso é bom, o seu uso é ruim”. Muita gente adota essa atitude, mas a definição de “bom” muda bastante
      Coisas como “eu ouço música gerada por IA, mas gravadoras também exploram artistas, então tudo bem”, “me atrasei por causa de uma consulta no dentista, então mandei um documento de design escrito por LLM sem ler”, “90% do post do blog foi escrito por LLM, mas meus prompts eram interessantes e originais”
      A marca de uma posição com princípios não é permitir julgar os outros, e sim deixar você desconfortável consigo mesmo. Então onde está a linha que o autor decidiu que queria cruzar, mas não vai?
    • Pior ainda é o tipo “quer comer o bolo e ainda ficar com ele”
      Para ser justo, a maioria dos defensores de LLM com quem esbarro é assim mesmo
      O curioso é que a maioria dessas pessoas está vários degraus acima de mim na carreira. Não digo isso para acusar ninguém, só como medida de “pelo menos conseguem pensar além da distância de um cuspe”
      E mesmo assim, não parecem ter vivido no mesmo mundo em que vivi
      Não há solução técnica para problemas sociais. O que impede mau comportamento é punição e fricção. Punição até dá para ter em algum grau, mas atravessando fronteiras ela se torna difícil de aplicar, e a fricção desapareceu por causa dos LLMs
      O bom uso de LLM é, no fundo, igual ao mau uso de LLM, só com mais etapas. Então, enquanto der para ganhar mais do que zero dinheiro desse jeito, sempre haverá mais comportamento ruim do que bom
      Em contextos locais isso talvez possa ser mudado com muito esforço, mas em escala global estamos ferrados
    • Este comentário, ao contrário daquilo de que reclama, tem surpreendentemente pouca reflexão ou feedback
      É estranho ver um comentário de esforço tão baixo receber votos positivos
    • Esta resposta perde por causa do sarcasmo
      O texto em si foi escrito com cuidado, e dá para discutir ou criticar a posição de forma válida, mas enquadrar tudo assim acaba fechando toda a conversa
      E, ao lidar com pessoas que postam textos de blog escritos por IA em comunidades humanas, acho apropriado haver um certo grau de sarcasmo
    • Em geral, está certo. Mas também existe a questão de “por favor, não estrague as comunidades com que eu me importo”
      Não sei se “escrita bem no estilo HN, muito sarcástica” é elogio ou não :D
  • O chorume matou o relançamento do https://digg.com em poucos meses
    Quase instantaneamente, bots passaram a despejar spam aproveitando o bom PageRank de SEO do domínio antigo, e era uma luta impossível de vencer

    • Ué? O Digg ainda nem reabriu, abriu?
  • “As pessoas estão compartilhando resultados de IA com facilidade demais, e isso é terrível e ruim! Só devem compartilhar resultados de IA que eu compartilharia, e apenas quando eu os compartilharia. Aí tudo será ótimo.”
    É engraçado um texto nesse tom acusar os outros de serem infantis
    Nem sei por que isso foi postado no Lobsters

  • Do nosso lado existe produtividade assistida por IA, curada e revisada com cuidado; do lado deles existe chorume de IA descuidado, gerado nas coxas e de valor negativo

  • Tenho tido boas experiências com IA. Vou responder diretamente às perguntas do autor para dar um exemplo positivo aqui
    “Mesmo assim você quer compartilhar amplamente?” Amplamente não, mas às vezes posto meus projetos quando são relevantes. Por exemplo, alguém perguntou diretamente como sandboxar IA, e aí compartilhei aqui o projeto virtdev
    “É realmente útil?” Muito útil
    “Você usa de fato?” Literalmente todos os dias
    “A documentação é realmente boa?” Depende do critério de “boa”. A documentação de projetos com os quais eu não me importo o suficiente para documentar por conta própria é escrita por IA. Acho melhor do que não ter nada. Se não fosse o Claude, essas coisas nem existiriam
    “Dá para usar?” Claro
    “Você revisitou o código repetidamente e o testou o suficiente?” Sim. Eu mesmo uso meu software e corrijo regularmente os problemas que encontro. Também abro o Claude e peço que ele faça code review da codebase inteira
    “Não foi uma noite com o Claude e no dia seguinte vocês dois acharam que não tinha sido uma boa ideia?” Não
    “Se for software, você está pronto para assumir a responsabilidade de ser a pessoa para quem os outros vão abrir issues e enviar PRs?” Sim
    “Se for texto, é algo que você mesmo gostaria de ler?” Depende. Eu escrevo meus textos. Aqui não uso Claude para nada mais complexo do que revisão
    Ironicamente, aqui talvez o resultado tivesse sido melhor se eu tivesse usado Claude. O resultado otimizado na direção que eu queria foi inconsistente
    Um texto que escrevi sobre coleta de lixo ainda me faz rir toda vez que releio, mas o pessoal do HN disse que eu tenho algum problema. Também não estavam errados. Meu único consolo é que parece que Bob Nystrom gostou
    “Isso realmente contribui para o entendimento acumulado da comunidade, ou é só o LLM autocompletando um texto que eu tinha preguiça de escrever e você tem preguiça de ler?” Não sei. Eu faço isso por mim. Se é útil para a comunidade, cabe à comunidade decidir