Comentários do tipo "isso foi escrito por LLM" devem ser denunciados como fora de tópico
(lobste.rs)- No Lobsters, continuaram as discussões sobre proibir textos gerados por LLM e mudar tags, mas parece haver consenso de que posts de baixo esforço e baixo teor informativo devem ser tratados como spam
- Reações que deixam apenas algo como “this is LLM slop” nos comentários ficam presas a julgar se o texto foi gerado ou não, em vez de discutir seu conteúdo, então a proposta é denunciá-las como fora de tópico
- Pelo menos 80% do motivo para ler o Lobsters está na qualidade dos comentários, e é incômodo ter de filtrar discussões sobre se um texto é ou não produto de LLM
- Quando alguém envia um texto por achá-lo interessante e o único comentário é algo como “se não tivesse sido escrito por LLM”, isso gera frustração para quem submeteu o link
- Ser acusado de que um texto escrito por você mesmo é um conteúdo gerado por LLM é ainda mais desanimador, e isso já aconteceu em outras plataformas e também com outros autores no Lobsters
Proposta
- As discussões sobre proibir textos gerados por LLM e mudar as tags
ai/vibecodingcontinuaram, mas parece haver acordo de que posts de baixo esforço e baixo teor informativo devem ser denunciados como spam e ignorados - A proposta é que reações nos comentários que deixem apenas “this is LLM slop” ou algo do tipo também sejam denunciadas como fora de tópico
- Pelo menos 80% do motivo para ler o Lobsters está na qualidade dos comentários, e é frustrante ter de filtrar debates contínuos sobre se o texto em discussão é ou não produto de LLM
- Se alguém enviou um texto por considerá-lo interessante, mas o único comentário é algo como “teria sido um bom texto se não tivesse sido escrito por LLM”, isso também é frustrante do ponto de vista de quem o submeteu
- Quando um texto escrito diretamente por uma pessoa, sem usar LLM, é enviado e depois tratado com suspeita como conteúdo gerado por LLM, isso é ainda mais frustrante e desanimador
- Isso não aconteceu com textos do próprio autor no Lobsters, mas ele já recebeu esse tipo de reação em outras plataformas e viu o mesmo acontecer com outros autores no Lobsters
Contexto e intenção
- LLM é um tema polarizado dentro da comunidade e está frustrando todo mundo; neste ponto, a chance de alguém mudar de opinião parece baixa
- O centro da proposta é, além de “denunciar e seguir em frente” no caso de textos de baixo esforço, também “denunciar e seguir em frente” no caso de metacomentários que apenas apontam se algo é ou não LLM
- Como cada pessoa tem um critério diferente para o que considera “slop”, a intenção é reduzir situações em que a discussão nos comentários desvia do conteúdo do texto para um julgamento sobre seu possível uso de LLM
1 comentários
Opiniões no Lobste.rs
Pode não agradar, mas eu agradeço esse tipo de aviso. Não quero gastar tempo lendo texto gerado, e sinto que, quando as pessoas terceirizam a escrita para uma ferramenta, perdem a própria voz, então nem faço questão de me envolver com escrita “assistida”
A gente não lê um texto só pelo conteúdo, mas também pela perspectiva e pelo estilo de quem escreveu. Também vale discutir por que importaria ou não como o texto foi escrito, e isso mostra melhor como o autor se envolveu no processo
Sinais iniciais que me permitam decidir logo de cara como tratar um conteúdo têm valor. Se você não gostar, pode apertar o botão [-]; eu posso usar o botão de ocultar
Nessas situações, seria bom ter um sinal avisando antes
Já vi suspeitas de uso de LLM recaírem repetidamente até sobre textos em que o autor diz que escreveu por conta própria e não há motivo para duvidar disso. Se os comentários nem sequer conseguem identificar de forma confiável conteúdo de LLM, então isso é só ruído e, na melhor das hipóteses, tão ruim quanto um artigo caça-cliques de IA
Comentários avisando que uma submissão é gerada por LLM são úteis, e eu os uso como referência para denunciar como spam e ocultar
Claro que não acredito cegamente nesses comentários; também verifico por conta própria
Se fosse possível denunciar um item como caça-cliques/spam, esses comentários desapareceriam
Proibir só os comentários sem corrigir a ferramenta de denúncia não faz sentido. É preciso tratar a causa raiz, não o sintoma
Para mim, é bem irritante ver discussões longas sobre a origem do que parece apenas um texto ruim comum. Ainda mais quando há fatos úteis soterrados ali
Fico pensando se não poderia existir alguma forma de registrar, separadamente de votos positivos/negativos sobre o interesse do texto, uma avaliação numérica pessoal da qualidade do texto ou do quanto ele parece ‘caça-cliques’. A média disso poderia ser calculada, e o usuário poderia até definir um limite para ocultação automática
Talvez isso torne o lobste.rs mais complexo do que o pretendido originalmente, mas pode ser razoável para lidar com o ambiente bastante distópico em que estamos
Já economizei tempo várias vezes graças a comentários dizendo “isso aqui é caça-cliques de LLM”, inclusive em pelo menos um texto que eu mesmo publiquei. Eu não quero ler caça-cliques e, menos ainda, publicar caça-cliques
Como leitor, esses comentários me ajudam. Principalmente quando apontam por que pensam assim; isso é mais útil do que uma denúncia simples
A definição de denúncia de “spam” na página about é a seguinte:
Eram textos postados por gente obcecada ou trolls para atrapalhar várias discussões. Conteúdo ruim gerado por LLM é indistinguível desse tipo de conteúdo
Como tratar um texto em que alguém só pediu a um LLM para corrigir gramática ou ortografia? E um caso em que alguém escreveu um argumento bem estruturado em espanhol e pediu ao LLM para traduzir? E se uma pessoa com dislexia deu uma lista de bullets essenciais e pediu ao LLM para transformar isso em texto corrido?
Eu gostaria que não simplificássemos uma questão sutil. Há risco de excluir contribuições interessantes. Claro, eu também não quero ver aqui caça-cliques sem valor informativo nenhum, ou pior, alucinações factualmente erradas
Pessoalmente, eu tendo a concordar com os dois lados. O que segue não é a posição oficial do site, só a minha opinião pessoal, e nem é uma conclusão muito elaborada. Estou compartilhando o que penso agora caso ajude na discussão
Os motivos para querer essa medida são válidos e compreensíveis. Ver um texto no qual você se esforçou ser tratado como se não tivesse havido envolvimento humano nenhum realmente desanima. Ainda mais se isso acontecer por motivos superficiais, como usar travessão em excesso. Eu também teria vontade de ir embora rapidinho
Ainda assim, talvez a medida em si não seja a ideal para esse objetivo. O efeito de uma intervenção dessas parece ser a perda da maior linha de defesa contra conteúdo sem humanos. Quando todo mundo ajuda a formar normas sociais e a aplicá-las de maneira consistente, isso escala muito melhor do que impor autoridade de cima para baixo. Por isso, sou muito cauteloso em sufocar uma dinâmica social que hoje cumpre um papel importante. Mesmo que haja danos visíveis, eu preferiria revisitar isso mais adiante, se esse papel se tornar menos importante
Haveria alguma outra medida útil? Se alguém tiver alguma sugestão que ainda não apareceu aqui, seria ótimo propor
Claro, gostaria que todos tomassem cuidado para não fazer acusações descuidadas quando não houver alta confiança. Independentemente da justificativa em que a pessoa acredite, uma reação descuidada e impulsiva é muito destrutiva. Se as pessoas continuarem se atacando pessoalmente no calor do momento, fica difícil qualquer espaço permanecer uma comunidade
Concordo totalmente. Muitas vezes eu leio um texto sem sentir absolutamente nada de “foi gerado por IA”, mas alguém fala isso com total convicção. Posso estar errado, mas como alguém pode ter certeza de que algo é gerado por IA?
Se for realmente caça-cliques, acho que as pessoas não vão votar positivamente e isso vai se ajustar de forma natural
Quando as pessoas dizem que querem a perspectiva e a percepção do autor, há de fato algo importante nisso. Mesmo que alguém tenha usado um LLM, sem ajuda humana além do prompt, para criar um post de blog fictício que por acaso ficou coerente, factualmente correto e interessante, eu ainda assim não teria muita vontade de ler esse texto. Pelo menos no contexto do lobsters
Talvez seja possível existir uma plataforma para ler esse tipo de conteúdo, algo como uma enciclopédia de textos de LLM, em que eu entro já sabendo da natureza daquilo. Mas não acho que isso combine com uma comunidade baseada em pensamento e criatividade humanos
Isso não muda muito o texto atual em si. É que eu não consigo dizer com confiança o quão precisos esses comentários de “isso tem cheiro de LLM” realmente são. Ainda assim, simpatizo muito com o desejo dos membros da comunidade de ter a segurança de que estão lendo algo escrito por uma pessoa consciente
Meio à parte desta proposta, fico curioso sobre por que ela está sendo denunciada como fora de tópico ou spam. Não parece se encaixar em nenhum dos critérios, não é?
Eu sei que a seção about diz que esse tipo de metaquestão não é ideal aqui, mas fiquei sinceramente curioso se deixei passar alguma coisa
Deve haver blogueiros cuja língua nativa não é o inglês e que usam IA para polir a linguagem dos posts. Pessoas mais acostumadas com o inglês podem interpretar esse tipo de texto como caça-cliques de IA, quando na verdade pode ser apenas uma forma de escrita assistida
Eu também não sou nativo em inglês, então não percebo bem quando há uso de IA nesse tipo de texto. Para mim, o mais importante é como a mensagem principal é transmitida