2 pontos por GN⁺ 2025-12-10 | 1 comentários | Compartilhar no WhatsApp
  • Foi levantado um debate sobre permitir no Hacker News comentários que citam respostas geradas por IA
  • Alguns usuários apontam que esse tipo de comentário reduz a autenticidade das opiniões e a qualidade da discussão
  • Outros argumentam que o uso de IA em si pode ser útil e que uma proibição total seria excessiva
  • A discussão se ampliou para a possível revisão das diretrizes do HN e para a questão da confiabilidade de falas geradas por IA
  • O debate evolui para a necessidade de a comunidade redefinir a responsabilidade sobre falas e os critérios de controle de qualidade na era da IA

Polêmica sobre comentários que citam IA na comunidade do HN

  • Alguns usuários criticam comentários no formato “I asked AI, and it said…” por disseminarem informações automáticas sem sentido
    • Segundo eles, esses comentários acabam apenas reproduzindo respostas repetitivas da IA, em vez de contribuir para a discussão real
  • O lado contrário afirma que a IA pode ser útil como ferramenta de busca de informação ou de resumo, e que citar seus resultados é algo natural para o usuário
    • Ainda assim, há quem defenda que, ao citar esse conteúdo, é preciso indicar a fonte e o contexto

Debate sobre revisão das diretrizes

  • Alguns propõem adicionar às diretrizes de comentários do HN uma proibição explícita
    • O motivo seria que expressões como “a IA disse isso” tornam incerto quem é o sujeito da opinião, enfraquecendo a responsabilização no debate
  • Outros se opõem à proibição com base na liberdade de expressão e na diversidade de uso da tecnologia
    • Em vez disso, apresentam como alternativa um meio-termo com sinalização clara ou critérios de verificação ao citar IA

Pontos centrais da discussão

  • Os principais temas são a confiabilidade das falas da IA, a distinção entre opiniões humanas e conteúdo gerado, e a manutenção da qualidade da comunidade
  • Há preocupação de que, à medida que aumentem as citações de IA, a estrutura de debate e o sistema de confiança do HN possam ser afetados
  • Não houve uma conclusão clara, mas foi compartilhada a percepção de que são necessários autorregulação da comunidade e consenso cultural

1 comentários

 
GN⁺ 2025-12-10
Opiniões no Hacker News
  • Talvez não dê para impedir completamente que as pessoas usem IA para lapidar respostas, mas é irritante quando isso é confundido com "ser útil"
    Eu venho aqui para saber o que as pessoas pensam, não o que a IA pensa. Então, quando dá para perceber que alguém usou IA no texto, isso por si só já afeta meu julgamento de valor

    • Penso da mesma forma. Só acho que há uma exceção quando alguém que não tem o inglês como língua nativa participa de uma discussão em inglês
      Hoje em dia a tradução por LLM ficou natural, mas aquele estilo de IA ainda aparece, e nesse ponto a confiança acaba caindo
    • Quando alguém no trabalho diz "o ChatGPT disse isso", isso soa para mim como "eu pesquisei, mas trouxe uma resposta não verificada"
    • Agora, se eu uso travessão (—), as pessoas logo acham "isso foi escrito por IA", e isso me entristece
    • Fico pensando se isso é parecido com quando alguém pergunta "qual é a fonte?". No fim, todo mundo pode jogar no Google, mas ainda assim exigir base melhora a qualidade da discussão
    • Há textos feitos com IA que são bem escritos e ofensivos. Muita gente acredita que está no primeiro caso, mas na prática muitas vezes é o segundo
  • Vejo comentários que citam IA como algo parecido com "copiar e colar exatamente o resultado da busca"
    A diferença é que muita gente confunde o resultado da IA com uma resposta autorizada
    Mas, em conversas sobre IA, citar uma resposta da IA como exemplo é algo natural, então uma proibição total seria inadequada
    No fim, isso parece um novo código de etiqueta se formando em tempo real. Como as pessoas que usavam headset Bluetooth em cafés nos anos 2000, acho que é algo que será ajustado pela pressão social

    • Na prática, isso está mais para "peguei só o primeiro resultado da busca e trouxe"
    • Isso lembra o antigo fenômeno dos "usuários de Google Glass" (glasshole). Soltar publicamente frases geradas por IA, do jeito que saíram, passa uma sensação de arrogância
    • Na verdade, com busca na web é a mesma coisa. Se você não verificar, cai no mesmo problema
    • Comentários na internet sempre foram um espaço de expressão pessoal. Usar IA misturada nisso também seria uma extensão dessa lógica
    • Se for no nível de dar uma resposta direta à pergunta, tudo bem, mas usar IA como ferramenta auxiliar para expandir uma resposta humana pode até ser algo positivo
  • Na verdade, esse tipo de comentário gerado por IA já é uma violação das regras do HN
    Há casos relacionados neste link.
    As regras do HN têm diretrizes básicas como uma constituição, e os comentários de moderação do dang e do tomhow funcionam como jurisprudência

    • Exato. Para ver outros casos proibidos, basta olhar os comentários do dang e do tomhow que incluem "please don't"
    • O problema é que essas regras informais são difíceis de conhecer para quem acabou de chegar.
      Se isso fosse adicionado explicitamente às diretrizes, talvez criasse um ambiente mais transparente e acolhedor
  • Antes dos LLMs já existiam pessoas que "pesquisavam e copiavam o primeiro resultado"
    Cada um pode escrever sua opinião livremente, mas, se você terceiriza completamente o pensamento, não tem o que contribuir para a conversa
    Se o HN quisesse isso, já teria adotado bots

    • Boa observação
  • Eu venho aqui para ouvir o que as pessoas pensam. Então não quero ver comentários de IA
    Mas agora está cansativo que só usar travessão já faça as pessoas acharem que é IA. No macOS é fácil de digitar e é útil para expressar minhas ideias

    • Na verdade, por causa disso as pessoas me fizeram usar travessão com ainda mais frequência
  • Será que precisa mesmo de regra? Esse tipo de comentário já recebe muito downvote. Quem não percebe isso também não vai ler as regras

    • Ainda assim, se os moderadores acharem necessário, isso deve ser explicitado como regra.
      Acho que a atitude da comunidade se expressa pelo voto, e a atitude do espaço pelas regras
      Ignorância não é isenção, então formalizar isso é necessário
    • Eu também acho que, se o sistema de votação funcionar direito, já basta. O problema não é a regra, mas o desenho do mecanismo de votação
    • Mas, na prática, também há pessoas que defendem comentários de IA. Especialmente gente ligada a startups de IA tende a agir assim
    • Se houver diretrizes, isso pode orientar quem está chegando.
      Um simples copiar e colar de LLM não é interessante, então é melhor proibir isso explicitamente
    • O HN é, por natureza, uma comunidade com forte capacidade de autorregulação
  • Em nível de comunidade, acho que deveríamos incentivar a divulgação do uso de IA (disclaimer)
    Se alguém escrever algo como "perguntei ao ChatGPT e ele respondeu isso", a informação em si ainda pode ser útil.
    Em vez de proibir totalmente, acho melhor incentivar transparência e concisão

    • Concordo. Se proibirem, as pessoas vão acabar escondendo o uso de IA
  • Copiar e colar só a resposta do LLM deveria ser proibido. É tão desinteressante quanto "pesquisei e trouxe isso"

    • Só que, no contexto de discutir o próprio LLM, é preciso haver exceções.
      Em vez de proibir cegamente, acho melhor regular isso por meio de um constrangimento coletivo (collective embarrassment)
    • Na verdade, é pior do que uma busca simples. Numa busca, pelo menos existe algum esforço de compreensão; no copiar e colar da IA, nem isso há
    • Ainda assim, comentários do tipo "pesquisei e confirmei", voltados à checagem factual, continuam tendo valor
    • De qualquer forma, isso já é uma prática proibida
    • Algumas pessoas argumentam que "o próprio prompt já é uma contribuição"
  • Se criarem uma regra, isso pode acabar bloqueando até textos que discutem experimentalmente erros ou vieses da IA
    Por isso, acho melhor uma diretriz no nível de "vamos evitar isso" do que uma proibição total
    De qualquer forma, nem todo mundo lê todas as regras, e o público do HN hoje é menos técnico do que antes, então esse tipo de resposta vai continuar aparecendo

  • Mesmo criando essa regra, não seria possível eliminar comentários de IA; o efeito seria apenas reduzir a divulgação do uso de IA

    • Acho que isso é até melhor. Se as pessoas esconderem por vergonha, no fim isso vai desaparecer
    • Para mim, comentários de IA em si não importam tanto, mas copiar e colar textos longos sem edição parece falta de educação.
      Já se for algo curto e natural, a ponto de ninguém perceber, eu não vejo motivo para implicar com isso