1 pontos por GN⁺ 18 시간 전 | 1 comentários | Compartilhar no WhatsApp
  • No Lobsters, continuaram as discussões sobre proibir textos gerados por LLM e mudar tags, mas parece haver consenso de que posts de baixo esforço e baixo teor informativo devem ser tratados como spam
  • Reações que deixam apenas algo como “this is LLM slop” nos comentários ficam presas a julgar se o texto foi gerado ou não, em vez de discutir seu conteúdo, então a proposta é denunciá-las como fora de tópico
  • Pelo menos 80% do motivo para ler o Lobsters está na qualidade dos comentários, e é incômodo ter de filtrar discussões sobre se um texto é ou não produto de LLM
  • Quando alguém envia um texto por achá-lo interessante e o único comentário é algo como “se não tivesse sido escrito por LLM”, isso gera frustração para quem submeteu o link
  • Ser acusado de que um texto escrito por você mesmo é um conteúdo gerado por LLM é ainda mais desanimador, e isso já aconteceu em outras plataformas e também com outros autores no Lobsters

Proposta

  • As discussões sobre proibir textos gerados por LLM e mudar as tags ai/vibecoding continuaram, mas parece haver acordo de que posts de baixo esforço e baixo teor informativo devem ser denunciados como spam e ignorados
  • A proposta é que reações nos comentários que deixem apenas “this is LLM slop” ou algo do tipo também sejam denunciadas como fora de tópico
  • Pelo menos 80% do motivo para ler o Lobsters está na qualidade dos comentários, e é frustrante ter de filtrar debates contínuos sobre se o texto em discussão é ou não produto de LLM
  • Se alguém enviou um texto por considerá-lo interessante, mas o único comentário é algo como “teria sido um bom texto se não tivesse sido escrito por LLM”, isso também é frustrante do ponto de vista de quem o submeteu
  • Quando um texto escrito diretamente por uma pessoa, sem usar LLM, é enviado e depois tratado com suspeita como conteúdo gerado por LLM, isso é ainda mais frustrante e desanimador
  • Isso não aconteceu com textos do próprio autor no Lobsters, mas ele já recebeu esse tipo de reação em outras plataformas e viu o mesmo acontecer com outros autores no Lobsters

Contexto e intenção

  • LLM é um tema polarizado dentro da comunidade e está frustrando todo mundo; neste ponto, a chance de alguém mudar de opinião parece baixa
  • O centro da proposta é, além de “denunciar e seguir em frente” no caso de textos de baixo esforço, também “denunciar e seguir em frente” no caso de metacomentários que apenas apontam se algo é ou não LLM
  • Como cada pessoa tem um critério diferente para o que considera “slop”, a intenção é reduzir situações em que a discussão nos comentários desvia do conteúdo do texto para um julgamento sobre seu possível uso de LLM

1 comentários

 
Opiniões no Lobste.rs
  • Pode não agradar, mas eu agradeço esse tipo de aviso. Não quero gastar tempo lendo texto gerado, e sinto que, quando as pessoas terceirizam a escrita para uma ferramenta, perdem a própria voz, então nem faço questão de me envolver com escrita “assistida”
    A gente não lê um texto só pelo conteúdo, mas também pela perspectiva e pelo estilo de quem escreveu. Também vale discutir por que importaria ou não como o texto foi escrito, e isso mostra melhor como o autor se envolveu no processo
    Sinais iniciais que me permitam decidir logo de cara como tratar um conteúdo têm valor. Se você não gostar, pode apertar o botão [-]; eu posso usar o botão de ocultar

    • O maior problema é que, se um texto é um blablablá de 17 parágrafos e você só percebe isso lá pelo décimo, já desperdiçou um tempo nada pequeno com algo de baixo valor
      Nessas situações, seria bom ter um sinal avisando antes
    • Eu entendo não gostar de conteúdo gerado por LLM, mas o uso de LLM existe em um espectro, que vai de “faça tudo e escreva por mim” até “não sou nativo, então me ajude a traduzir/organizar em inglês”. Mais importante ainda: não é necessário que toda publicação tenha uma dúzia de comentários no topo discutindo se foi escrita por LLM ou não
      Já vi suspeitas de uso de LLM recaírem repetidamente até sobre textos em que o autor diz que escreveu por conta própria e não há motivo para duvidar disso. Se os comentários nem sequer conseguem identificar de forma confiável conteúdo de LLM, então isso é só ruído e, na melhor das hipóteses, tão ruim quanto um artigo caça-cliques de IA
  • Comentários avisando que uma submissão é gerada por LLM são úteis, e eu os uso como referência para denunciar como spam e ocultar
    Claro que não acredito cegamente nesses comentários; também verifico por conta própria

  • Se fosse possível denunciar um item como caça-cliques/spam, esses comentários desapareceriam

    • Esses comentários claramente estão contornando uma limitação do sistema de denúncias. Spam é definido como algo com componente comercial, então, seguindo a definição ao pé da letra, isso não se aplica a muitos posts caça-cliques
      Proibir só os comentários sem corrigir a ferramenta de denúncia não faz sentido. É preciso tratar a causa raiz, não o sintoma
    • Eu já tenho certa idade e acho que não reconheço ‘caça-cliques’ tão instintivamente quanto outras pessoas. Talvez porque ele me pareça o mesmo tipo de besteira de marketing feita por humanos de alguns anos atrás, então não vejo isso como um fenômeno separado
      Para mim, é bem irritante ver discussões longas sobre a origem do que parece apenas um texto ruim comum. Ainda mais quando há fatos úteis soterrados ali
      Fico pensando se não poderia existir alguma forma de registrar, separadamente de votos positivos/negativos sobre o interesse do texto, uma avaliação numérica pessoal da qualidade do texto ou do quanto ele parece ‘caça-cliques’. A média disso poderia ser calculada, e o usuário poderia até definir um limite para ocultação automática
      Talvez isso torne o lobste.rs mais complexo do que o pretendido originalmente, mas pode ser razoável para lidar com o ambiente bastante distópico em que estamos
    • Já não dá para denunciar um item como spam? Eu faço isso com frequência
  • Já economizei tempo várias vezes graças a comentários dizendo “isso aqui é caça-cliques de LLM”, inclusive em pelo menos um texto que eu mesmo publiquei. Eu não quero ler caça-cliques e, menos ainda, publicar caça-cliques

  • Como leitor, esses comentários me ajudam. Principalmente quando apontam por que pensam assim; isso é mais útil do que uma denúncia simples
    A definição de denúncia de “spam” na página about é a seguinte:

    For stories, these are: "Off-topic" for stories that are not about computing; "Already Posted" for duplicate submissions and links that elaborate on or responses to a thread that's less than a week old (see merging); and "Broken Link" for links that 404, 500, or present a paywall; "Spam" for links that promote a commercial service.
    Comparando essa definição com a ação proposta, e com um comportamento que eu já vi ser apoiado antes por pelo menos um moderador, acho melhor que esses comentários continuem existindo
    O desejo de evitar caça-cliques é maior do que o desejo de evitar marketing de conteúdo. Marketing é fácil de contextualizar, e a denúncia por si só já fornece informação suficiente. Até existir uma denúncia separada para caça-cliques, espero que esses comentários continuem permitidos, especialmente quando trazem fundamento

    • Pessoalmente, eu uso “spam” de forma mais ampla do que a definição da página about. Não só no sentido antigo de e-mail comercial não solicitado (“UCE”), mas também para aqueles textões copiados e colados que inundavam alguns grupos da Usenet
      Eram textos postados por gente obcecada ou trolls para atrapalhar várias discussões. Conteúdo ruim gerado por LLM é indistinguível desse tipo de conteúdo
  • Como tratar um texto em que alguém só pediu a um LLM para corrigir gramática ou ortografia? E um caso em que alguém escreveu um argumento bem estruturado em espanhol e pediu ao LLM para traduzir? E se uma pessoa com dislexia deu uma lista de bullets essenciais e pediu ao LLM para transformar isso em texto corrido?
    Eu gostaria que não simplificássemos uma questão sutil. Há risco de excluir contribuições interessantes. Claro, eu também não quero ver aqui caça-cliques sem valor informativo nenhum, ou pior, alucinações factualmente erradas

    • Os prós e contras de texto gerado por LLM já foram debatidos à exaustão. O que eu quero é apenas que essa discussão pare nos comentários. Denuncie como spam e siga em frente, ou simplesmente deixe para lá
  • Pessoalmente, eu tendo a concordar com os dois lados. O que segue não é a posição oficial do site, só a minha opinião pessoal, e nem é uma conclusão muito elaborada. Estou compartilhando o que penso agora caso ajude na discussão
    Os motivos para querer essa medida são válidos e compreensíveis. Ver um texto no qual você se esforçou ser tratado como se não tivesse havido envolvimento humano nenhum realmente desanima. Ainda mais se isso acontecer por motivos superficiais, como usar travessão em excesso. Eu também teria vontade de ir embora rapidinho
    Ainda assim, talvez a medida em si não seja a ideal para esse objetivo. O efeito de uma intervenção dessas parece ser a perda da maior linha de defesa contra conteúdo sem humanos. Quando todo mundo ajuda a formar normas sociais e a aplicá-las de maneira consistente, isso escala muito melhor do que impor autoridade de cima para baixo. Por isso, sou muito cauteloso em sufocar uma dinâmica social que hoje cumpre um papel importante. Mesmo que haja danos visíveis, eu preferiria revisitar isso mais adiante, se esse papel se tornar menos importante
    Haveria alguma outra medida útil? Se alguém tiver alguma sugestão que ainda não apareceu aqui, seria ótimo propor
    Claro, gostaria que todos tomassem cuidado para não fazer acusações descuidadas quando não houver alta confiança. Independentemente da justificativa em que a pessoa acredite, uma reação descuidada e impulsiva é muito destrutiva. Se as pessoas continuarem se atacando pessoalmente no calor do momento, fica difícil qualquer espaço permanecer uma comunidade

  • Concordo totalmente. Muitas vezes eu leio um texto sem sentir absolutamente nada de “foi gerado por IA”, mas alguém fala isso com total convicção. Posso estar errado, mas como alguém pode ter certeza de que algo é gerado por IA?
    Se for realmente caça-cliques, acho que as pessoas não vão votar positivamente e isso vai se ajustar de forma natural

    • Não estou convencido de que exista alguma característica intrínseca em texto gerado por IA que as pessoas, ou a maioria delas, sempre consigam perceber. No fim, pode ser que praticamente deixe de haver forma de distinguir só pelo texto. Se for assim, então, se algo foi escrito por LLM mas ninguém percebe, isso é “caça-cliques de verdade”?
      Quando as pessoas dizem que querem a perspectiva e a percepção do autor, há de fato algo importante nisso. Mesmo que alguém tenha usado um LLM, sem ajuda humana além do prompt, para criar um post de blog fictício que por acaso ficou coerente, factualmente correto e interessante, eu ainda assim não teria muita vontade de ler esse texto. Pelo menos no contexto do lobsters
      Talvez seja possível existir uma plataforma para ler esse tipo de conteúdo, algo como uma enciclopédia de textos de LLM, em que eu entro já sabendo da natureza daquilo. Mas não acho que isso combine com uma comunidade baseada em pensamento e criatividade humanos
      Isso não muda muito o texto atual em si. É que eu não consigo dizer com confiança o quão precisos esses comentários de “isso tem cheiro de LLM” realmente são. Ainda assim, simpatizo muito com o desejo dos membros da comunidade de ter a segurança de que estão lendo algo escrito por uma pessoa consciente
  • Meio à parte desta proposta, fico curioso sobre por que ela está sendo denunciada como fora de tópico ou spam. Não parece se encaixar em nenhum dos critérios, não é?
    Eu sei que a seção about diz que esse tipo de metaquestão não é ideal aqui, mas fiquei sinceramente curioso se deixei passar alguma coisa

  • Deve haver blogueiros cuja língua nativa não é o inglês e que usam IA para polir a linguagem dos posts. Pessoas mais acostumadas com o inglês podem interpretar esse tipo de texto como caça-cliques de IA, quando na verdade pode ser apenas uma forma de escrita assistida
    Eu também não sou nativo em inglês, então não percebo bem quando há uso de IA nesse tipo de texto. Para mim, o mais importante é como a mensagem principal é transmitida

    • Este meta thread não é sobre por que as pessoas usam ou deixam de usar LLM. O que eu quero é parar de ver, em toda thread de comentários daqui, discussões do tipo “isso foi gerado por robô!” “não foi” “foi sim, é óbvio”. Claro, estou exagerando um pouco