- Foi levantado um debate sobre permitir no Hacker News comentários que citam respostas geradas por IA
- Alguns usuários apontam que esse tipo de comentário reduz a autenticidade das opiniões e a qualidade da discussão
- Outros argumentam que o uso de IA em si pode ser útil e que uma proibição total seria excessiva
- A discussão se ampliou para a possível revisão das diretrizes do HN e para a questão da confiabilidade de falas geradas por IA
- O debate evolui para a necessidade de a comunidade redefinir a responsabilidade sobre falas e os critérios de controle de qualidade na era da IA
Polêmica sobre comentários que citam IA na comunidade do HN
- Alguns usuários criticam comentários no formato “I asked AI, and it said…” por disseminarem informações automáticas sem sentido
- Segundo eles, esses comentários acabam apenas reproduzindo respostas repetitivas da IA, em vez de contribuir para a discussão real
- O lado contrário afirma que a IA pode ser útil como ferramenta de busca de informação ou de resumo, e que citar seus resultados é algo natural para o usuário
- Ainda assim, há quem defenda que, ao citar esse conteúdo, é preciso indicar a fonte e o contexto
Debate sobre revisão das diretrizes
- Alguns propõem adicionar às diretrizes de comentários do HN uma proibição explícita
- O motivo seria que expressões como “a IA disse isso” tornam incerto quem é o sujeito da opinião, enfraquecendo a responsabilização no debate
- Outros se opõem à proibição com base na liberdade de expressão e na diversidade de uso da tecnologia
- Em vez disso, apresentam como alternativa um meio-termo com sinalização clara ou critérios de verificação ao citar IA
Pontos centrais da discussão
- Os principais temas são a confiabilidade das falas da IA, a distinção entre opiniões humanas e conteúdo gerado, e a manutenção da qualidade da comunidade
- Há preocupação de que, à medida que aumentem as citações de IA, a estrutura de debate e o sistema de confiança do HN possam ser afetados
- Não houve uma conclusão clara, mas foi compartilhada a percepção de que são necessários autorregulação da comunidade e consenso cultural
1 comentários
Opiniões no Hacker News
Talvez não dê para impedir completamente que as pessoas usem IA para lapidar respostas, mas é irritante quando isso é confundido com "ser útil"
Eu venho aqui para saber o que as pessoas pensam, não o que a IA pensa. Então, quando dá para perceber que alguém usou IA no texto, isso por si só já afeta meu julgamento de valor
Hoje em dia a tradução por LLM ficou natural, mas aquele estilo de IA ainda aparece, e nesse ponto a confiança acaba caindo
Vejo comentários que citam IA como algo parecido com "copiar e colar exatamente o resultado da busca"
A diferença é que muita gente confunde o resultado da IA com uma resposta autorizada
Mas, em conversas sobre IA, citar uma resposta da IA como exemplo é algo natural, então uma proibição total seria inadequada
No fim, isso parece um novo código de etiqueta se formando em tempo real. Como as pessoas que usavam headset Bluetooth em cafés nos anos 2000, acho que é algo que será ajustado pela pressão social
Na verdade, esse tipo de comentário gerado por IA já é uma violação das regras do HN
Há casos relacionados neste link.
As regras do HN têm diretrizes básicas como uma constituição, e os comentários de moderação do dang e do tomhow funcionam como jurisprudência
Se isso fosse adicionado explicitamente às diretrizes, talvez criasse um ambiente mais transparente e acolhedor
Antes dos LLMs já existiam pessoas que "pesquisavam e copiavam o primeiro resultado"
Cada um pode escrever sua opinião livremente, mas, se você terceiriza completamente o pensamento, não tem o que contribuir para a conversa
Se o HN quisesse isso, já teria adotado bots
Eu venho aqui para ouvir o que as pessoas pensam. Então não quero ver comentários de IA
Mas agora está cansativo que só usar travessão já faça as pessoas acharem que é IA. No macOS é fácil de digitar e é útil para expressar minhas ideias
Será que precisa mesmo de regra? Esse tipo de comentário já recebe muito downvote. Quem não percebe isso também não vai ler as regras
Acho que a atitude da comunidade se expressa pelo voto, e a atitude do espaço pelas regras
Ignorância não é isenção, então formalizar isso é necessário
Um simples copiar e colar de LLM não é interessante, então é melhor proibir isso explicitamente
Em nível de comunidade, acho que deveríamos incentivar a divulgação do uso de IA (disclaimer)
Se alguém escrever algo como "perguntei ao ChatGPT e ele respondeu isso", a informação em si ainda pode ser útil.
Em vez de proibir totalmente, acho melhor incentivar transparência e concisão
Copiar e colar só a resposta do LLM deveria ser proibido. É tão desinteressante quanto "pesquisei e trouxe isso"
Em vez de proibir cegamente, acho melhor regular isso por meio de um constrangimento coletivo (collective embarrassment)
Se criarem uma regra, isso pode acabar bloqueando até textos que discutem experimentalmente erros ou vieses da IA
Por isso, acho melhor uma diretriz no nível de "vamos evitar isso" do que uma proibição total
De qualquer forma, nem todo mundo lê todas as regras, e o público do HN hoje é menos técnico do que antes, então esse tipo de resposta vai continuar aparecendo
Mesmo criando essa regra, não seria possível eliminar comentários de IA; o efeito seria apenas reduzir a divulgação do uso de IA
Já se for algo curto e natural, a ponto de ninguém perceber, eu não vejo motivo para implicar com isso