3 pontos por GN⁺ 2026-03-16 | 1 comentários | Compartilhar no WhatsApp
  • ‘Sloppypasta’ se refere ao ato de copiar a saída de um LLM (grande modelo de linguagem) sem revisão e enviá-la a outras pessoas, sendo apontado como um comportamento rude por transferir ao destinatário uma carga desnecessária de verificação
  • Essas mensagens provocam uma assimetria entre leitura e verificação: o autor envia em poucos segundos, mas o destinatário precisa revisar um texto longo, o que resulta em transferência de trabalho
  • A questão da confiança também é grave: por causa das alucinações (hallucination) dos LLMs e de seu tom excessivamente confiante, o destinatário acaba tendo de desconfiar por padrão de todas as informações
  • O texto apresenta como etiqueta básica no uso de IA os princípios “Ler (Read) · Verificar (Verify) · Resumir (Distill) · Divulgar (Disclose)” e enfatiza que saídas de IA não solicitadas não devem ser compartilhadas
  • A IA pode aumentar a produtividade, mas o texto destaca a necessidade de usá-la sem invadir o tempo e a confiança das outras pessoas

Definição de Sloppypasta e entendimento do problema

  • Sloppypasta é um termo que combina ‘slop’ (conteúdo de IA de baixa qualidade) com ‘copypasta’ (meme de copiar e colar), e significa repassar saídas de LLM sem ler nem verificar
    • Isso é visto como uma ação assimétrica, em que o remetente empurra ao destinatário o esforço de revisão e síntese que deveria fazer
  • É algo comum em Slack, Teams, e-mail e similares, e pode ser identificado com facilidade pelo estilo artificialmente formal e a formatação excessiva típicos da IA
  • O remetente envia a mensagem em poucos segundos, mas o destinatário fica com o ônus de validar e julgar o conteúdo

Tipos e exemplos de Sloppypasta

  • The Eager Beaver: quando alguém cola a resposta de um chatbot tentando contribuir para a conversa
    • Embora a intenção seja boa, um texto genérico de IA e sem contexto atrapalha a conversa e interrompe o fluxo
  • The OrAIcle: formato em que a pessoa responde a uma pergunta específica com algo começando por “ChatGPT says”
    • Isso é considerado uma resposta deselegante, à semelhança do antigo LMGTFY (“Let Me Google That For You”)
    • O destinatário passa a carregar o peso de decidir sozinho sobre a veracidade, relevância e origem do conteúdo
  • The Ghostwriter: quando alguém compartilha conteúdo escrito por IA como se fosse texto próprio
    • O destinatário não tem base para confiar nisso e, se houver erro, isso pode levar a danos à credibilidade do remetente

Por que isso é um problema

  • Desequilíbrio de esforço: o LLM praticamente elimina o custo de produzir texto, mas o destinatário ainda precisa gastar esforço cognitivo significativo para ler e verificar
    • Isso acumula dívida cognitiva (cognitive debt) e faz o remetente perder oportunidades de aprendizado e compreensão
  • Colapso da confiança: por causa das alucinações e informações falsas geradas por LLMs, o princípio de “confie, mas verifique” deixa de funcionar
    • O destinatário precisa desconfiar por padrão de todas as mensagens, e o capital de confiança do remetente vai se esgotando
  • Perda do sinal de expertise: o tom confiante da IA dificulta distinguir especialização real de falsa convicção, enfraquecendo ainda mais a confiança
  • Responsabilidade indefinida: quando há erro, fica incerto quem deve ser responsabilizado, a IA ou o usuário
  • No fim, Sloppypasta causa perda de aprendizado, erosão da confiança e fadiga na comunicação

Opiniões citadas

  • “Escrever é um processo de pensamento, e delegá-lo a um LLM reduz compreensão e memória” — pesquisa da Anthropic
  • “Compartilhar saídas de IA sem sequer lê-las é falta de educação” — Simon Willison
  • “Uma resposta fluida escrita por IA pode dar a sensação de estar sendo ignorado, mesmo quando o conteúdo está correto” — Blake Stockton
  • “Antes, escrever era prova do pensamento humano; agora, já não é mais” — Alex Martsinovich

6 princípios para evitar Sloppypasta

  • Read: antes de compartilhar, é preciso ler e entender por conta própria
    • Uma saída não lida não pode garantir exatidão, relevância nem atualidade
  • Verify: é preciso fazer checagem factual
    • Compartilhar algo implica uma garantia implícita de confiança por parte de quem envia, e informação errada pode resultar em dano reputacional
  • Distill: é preciso resumir e transmitir apenas o essencial
    • Como LLMs tendem a gerar respostas prolixas por sua estrutura de custo por token, o remetente deve assumir a responsabilidade de síntese
  • Disclose: é preciso deixar claro que houve uso de IA
    • Compartilhar quais partes foram revisadas e quais prompts foram usados pode restaurar sinais de confiança
  • Share only when requested: saídas de IA não solicitadas não devem ser compartilhadas
    • Sloppypasta impõe ao destinatário o peso de ler, verificar e resumir
  • Share as a link: saídas longas de IA devem ser compartilhadas como link ou arquivo anexado
    • Assim, evita-se encher a janela de conversa e atrapalhar o fluxo

Conclusão

  • A IA é útil como ferramenta de aumento de produtividade, mas é essencial usá-la sem invadir o tempo e a confiança dos outros
  • Novas tecnologias exigem novas formas de etiqueta (New manners) e
    a IA deve ser usada não como substituta do pensamento, mas como ferramenta para acelerá-lo

1 comentários

 
GN⁺ 2026-03-16
Opiniões do Hacker News
  • Recentemente passei por uma versão ainda mais terrível de tickets gerados por IA
    Foi um caso em que alguém colou diretamente em um ticket do Jira o resultado de um prompt pedindo para “escrever uma especificação detalhada de produto para um pipeline de coleta de dados de ensaios clínicos”
    Não tinha absolutamente nada a ver com o design interno e ainda adicionava um monte de funcionalidades desnecessárias
    Quando apontei isso para o PM, ele desconversou dizendo “vamos discutir isso na sprint review” e falou em “parceria” com a equipe de engenharia
    Parece que em breve vamos precisar aprender etiqueta de IA
    • Antigamente os tickets do Jira eram curtos, mas úteis; agora ficaram desnecessariamente longos e com menos informação essencial
      É bem irônico ouvir que a produtividade aumentou graças à IA
    • Do ponto de vista de quem mantém projetos open source, esse problema já existe há mais de um ano
      Só demorou um pouco para se espalhar até o trabalho nas empresas
    • A expressão etiqueta de IA é realmente perfeita
      IA é útil, mas é irritante quando você precisa tratar seriamente algo que a outra pessoa produziu em 10 segundos
      Agora parece o Velho Oeste, mas algum dia regras adequadas de uso vão se estabelecer
    • No fim das contas, tudo bem eles fazerem isso, mas se eu pegar o ticket bagunçado deles, jogar no Claude e publicar o resultado sem revisar, aí a responsabilidade cai sobre mim, certo?
      É engraçado
  • Como engenheiro sênior, ando exausto de code reviews malfeitos por IA
    Hoje decidi até criar um novo projeto POC por conta própria
    Passei duas semanas fazendo code review, registrando logs e escrevendo exemplos para provar que a maior parte não funcionava
    O engraçado é que meu gerente relatou em uma semana, usando Claude, que “funcionava”
    Eu tive de escrever 4 tarefas no Jira, inúmeros commits e três relatórios
  • Não consigo ter tanta simpatia por quem fica furioso com esse comportamento
    A internet nunca foi exatamente um espaço de discurso de alta qualidade
    Como consumidores de conteúdo, precisamos de ferramentas de filtragem melhores, e ironicamente a IA talvez seja justamente o que pode viabilizá-las
    É interessante que as pessoas achem aceitável conteúdo criado por “sua própria IA”, mas se sintam enganadas ao ver algo feito pela “IA dos outros”
    No fim, talvez acabemos num mundo tipo a Dead Internet Theory, em que a IA cria conteúdo e a IA o consome
    Mesmo que isso soe ineficiente, a internet nunca foi um espaço eficiente
    • O motivo de “conteúdo da IA dos outros” ser desagradável é claro
      Se eu quisesse uma resposta de IA, teria perguntado diretamente
      O motivo para perguntar a um humano é querer uma resposta humana
      É como comer fast-food de vez em quando, mas ficar irritado se servirem um Big Mac num restaurante sofisticado
    • Texto escrito por IA sempre dá a sensação de estar lendo um post de LinkedIn
      Ele pega uma ideia simples e a estica em frases longas e formais para parecer plausível
      As pessoas colocam suas próprias ideias no LLM e gostam do resultado porque ele bate com o que pensam,
      mas para os outros isso é só perda de tempo lendo textão desnecessário
      Era só resumir em bullet points
    • Respostas de IA são fáceis demais de obter
      Por isso, quando alguém manda uma resposta escrita por IA, parece uma grosseria equivalente a mandar um link do LMGTFY
      Eu também sei perguntar para uma IA, então mandar isso no meu lugar não agrega valor nenhum
    • Todo mundo quer criar alguma coisa com LLM, mas ninguém quer consumir o resultado
      No fim, se os produtores não pagarem os consumidores, esse ecossistema vai ruir
    • O que este texto está dizendo não é só um problema de qualidade de conteúdo, mas de origem e autenticidade
      Muita gente também não gosta “da nossa IA”; só não empurra isso para os outros
  • sloppypasta” é, na verdade, um sinal útil
    Do ponto de vista de quem gerencia uma equipe, quem abusa disso se torna um caso óbvio para corte
    • Na nossa empresa, ao contrário, nem podemos demitir essas pessoas
      O resultado é que a empresa virou um mercado de drones arremessando lixo de IA
  • Uma pessoa copiou a resposta a comentários de review de PR para um LLM e depois colou o resultado diretamente
    • Isso me fez lembrar deste exemplo de PR em OCaml
    • Em caso ainda pior, teve gente que subiu literalmente uma captura de tela da resposta do Copilot
  • Ironicamente, o próprio site parece um site feito por LLM
    • Sim, de fato o site foi feito com LLM
      Eu não sou web designer, então recebi ajuda para criar um site visualmente agradável
      Mas os ensaios e as diretrizes foram todos escritos por humanos
    • O frontend do Claude Code parece gostar de fontes com serifa
      Ainda assim, foi bom deixar explícito o uso de IA
      Link de divulgação de IA
  • Há uma frase que tenho ouvido bastante ultimamente — “o Chat disse isso
    Já soa como conversa cotidiana
  • Isso me lembra um livro relacionado — On Bullshit, de Harry Frankfurt
    Diferente da mentira, bullshit não distorce os fatos, mas distorce a intenção do falante
    Há também um conceito parecido, o Gish-gallop — uma técnica de debate que desperdiça o tempo do outro despejando inúmeras alegações falsas e pontos difíceis de refutar
  • Este texto propõe parar com o sloppypasta, mas eu me interesso mais por como deve reagir quem recebe isso
    Tenho receio de criar tensão ao dizer a um colega para parar de usar resultados de IA não verificados
    E seria ainda mais constrangedor se aquilo tivesse sido realmente escrito pela própria pessoa
    • Em situação parecida, eu também só respondo com uma linha
      Será que eles vão responder de novo com outro textão?
    • É preciso fazê-los perceber que, se servirem apenas como cano da IA, no fim estarão substituindo a si mesmos
    • Nem precisa dizer nada; basta reagir apenas quando o resultado deles for significativo
    • Eu transformei isso num guia compartilhável, tipo nohello.net ou dontasktoask.com
      Abordar isso em uma conversa paralela, e não em um canal público, funcionou bem
      Também é bom propor uma política de uso de IA da equipe para ter isso como base na conversa
    • Acho melhor problematizar o padrão de comportamento do que apontar indivíduos
      A menos que a liderança técnica imponha isso, é melhor abordar no formato de review da equipe
  • Conversando com gerentes médios de grandes empresas, ouço muito “mande um documento para eu decidir”
    Antes, mesmo quando eu escrevia documentos com cuidado, ninguém lia,
    agora, se você manda um documento de 3000 páginas feito por IA, ninguém lê e mesmo assim aprova
    Não é perfeito, mas ainda acho melhor do que a época em que eu precisava ler por eles nas reuniões
    • O papel do gerente intermediário é ler os documentos escritos pelos subordinados e dar feedback para aumentar a clareza
      Na era da IA, não sei se esse papel vai se tornar inútil, ou se no fim todos nós vamos sobrar apenas como reviewers