- ‘Sloppypasta’ se refere ao ato de copiar a saída de um LLM (grande modelo de linguagem) sem revisão e enviá-la a outras pessoas, sendo apontado como um comportamento rude por transferir ao destinatário uma carga desnecessária de verificação
- Essas mensagens provocam uma assimetria entre leitura e verificação: o autor envia em poucos segundos, mas o destinatário precisa revisar um texto longo, o que resulta em transferência de trabalho
- A questão da confiança também é grave: por causa das alucinações (hallucination) dos LLMs e de seu tom excessivamente confiante, o destinatário acaba tendo de desconfiar por padrão de todas as informações
- O texto apresenta como etiqueta básica no uso de IA os princípios “Ler (Read) · Verificar (Verify) · Resumir (Distill) · Divulgar (Disclose)” e enfatiza que saídas de IA não solicitadas não devem ser compartilhadas
- A IA pode aumentar a produtividade, mas o texto destaca a necessidade de usá-la sem invadir o tempo e a confiança das outras pessoas
Definição de Sloppypasta e entendimento do problema
- Sloppypasta é um termo que combina ‘slop’ (conteúdo de IA de baixa qualidade) com ‘copypasta’ (meme de copiar e colar), e significa repassar saídas de LLM sem ler nem verificar
- Isso é visto como uma ação assimétrica, em que o remetente empurra ao destinatário o esforço de revisão e síntese que deveria fazer
- É algo comum em Slack, Teams, e-mail e similares, e pode ser identificado com facilidade pelo estilo artificialmente formal e a formatação excessiva típicos da IA
- O remetente envia a mensagem em poucos segundos, mas o destinatário fica com o ônus de validar e julgar o conteúdo
Tipos e exemplos de Sloppypasta
- The Eager Beaver: quando alguém cola a resposta de um chatbot tentando contribuir para a conversa
- Embora a intenção seja boa, um texto genérico de IA e sem contexto atrapalha a conversa e interrompe o fluxo
- The OrAIcle: formato em que a pessoa responde a uma pergunta específica com algo começando por “ChatGPT says”
- Isso é considerado uma resposta deselegante, à semelhança do antigo LMGTFY (“Let Me Google That For You”)
- O destinatário passa a carregar o peso de decidir sozinho sobre a veracidade, relevância e origem do conteúdo
- The Ghostwriter: quando alguém compartilha conteúdo escrito por IA como se fosse texto próprio
- O destinatário não tem base para confiar nisso e, se houver erro, isso pode levar a danos à credibilidade do remetente
Por que isso é um problema
- Desequilíbrio de esforço: o LLM praticamente elimina o custo de produzir texto, mas o destinatário ainda precisa gastar esforço cognitivo significativo para ler e verificar
- Isso acumula dívida cognitiva (cognitive debt) e faz o remetente perder oportunidades de aprendizado e compreensão
- Colapso da confiança: por causa das alucinações e informações falsas geradas por LLMs, o princípio de “confie, mas verifique” deixa de funcionar
- O destinatário precisa desconfiar por padrão de todas as mensagens, e o capital de confiança do remetente vai se esgotando
- Perda do sinal de expertise: o tom confiante da IA dificulta distinguir especialização real de falsa convicção, enfraquecendo ainda mais a confiança
- Responsabilidade indefinida: quando há erro, fica incerto quem deve ser responsabilizado, a IA ou o usuário
- No fim, Sloppypasta causa perda de aprendizado, erosão da confiança e fadiga na comunicação
Opiniões citadas
- “Escrever é um processo de pensamento, e delegá-lo a um LLM reduz compreensão e memória” — pesquisa da Anthropic
- “Compartilhar saídas de IA sem sequer lê-las é falta de educação” — Simon Willison
- “Uma resposta fluida escrita por IA pode dar a sensação de estar sendo ignorado, mesmo quando o conteúdo está correto” — Blake Stockton
- “Antes, escrever era prova do pensamento humano; agora, já não é mais” — Alex Martsinovich
6 princípios para evitar Sloppypasta
- Read: antes de compartilhar, é preciso ler e entender por conta própria
- Uma saída não lida não pode garantir exatidão, relevância nem atualidade
- Verify: é preciso fazer checagem factual
- Compartilhar algo implica uma garantia implícita de confiança por parte de quem envia, e informação errada pode resultar em dano reputacional
- Distill: é preciso resumir e transmitir apenas o essencial
- Como LLMs tendem a gerar respostas prolixas por sua estrutura de custo por token, o remetente deve assumir a responsabilidade de síntese
- Disclose: é preciso deixar claro que houve uso de IA
- Compartilhar quais partes foram revisadas e quais prompts foram usados pode restaurar sinais de confiança
- Share only when requested: saídas de IA não solicitadas não devem ser compartilhadas
- Sloppypasta impõe ao destinatário o peso de ler, verificar e resumir
- Share as a link: saídas longas de IA devem ser compartilhadas como link ou arquivo anexado
- Assim, evita-se encher a janela de conversa e atrapalhar o fluxo
Conclusão
- A IA é útil como ferramenta de aumento de produtividade, mas é essencial usá-la sem invadir o tempo e a confiança dos outros
- Novas tecnologias exigem novas formas de etiqueta (New manners) e
a IA deve ser usada não como substituta do pensamento, mas como ferramenta para acelerá-lo
1 comentários
Opiniões do Hacker News
Foi um caso em que alguém colou diretamente em um ticket do Jira o resultado de um prompt pedindo para “escrever uma especificação detalhada de produto para um pipeline de coleta de dados de ensaios clínicos”
Não tinha absolutamente nada a ver com o design interno e ainda adicionava um monte de funcionalidades desnecessárias
Quando apontei isso para o PM, ele desconversou dizendo “vamos discutir isso na sprint review” e falou em “parceria” com a equipe de engenharia
Parece que em breve vamos precisar aprender etiqueta de IA
É bem irônico ouvir que a produtividade aumentou graças à IA
Só demorou um pouco para se espalhar até o trabalho nas empresas
IA é útil, mas é irritante quando você precisa tratar seriamente algo que a outra pessoa produziu em 10 segundos
Agora parece o Velho Oeste, mas algum dia regras adequadas de uso vão se estabelecer
É engraçado
Hoje decidi até criar um novo projeto POC por conta própria
Passei duas semanas fazendo code review, registrando logs e escrevendo exemplos para provar que a maior parte não funcionava
O engraçado é que meu gerente relatou em uma semana, usando Claude, que “funcionava”
Eu tive de escrever 4 tarefas no Jira, inúmeros commits e três relatórios
A internet nunca foi exatamente um espaço de discurso de alta qualidade
Como consumidores de conteúdo, precisamos de ferramentas de filtragem melhores, e ironicamente a IA talvez seja justamente o que pode viabilizá-las
É interessante que as pessoas achem aceitável conteúdo criado por “sua própria IA”, mas se sintam enganadas ao ver algo feito pela “IA dos outros”
No fim, talvez acabemos num mundo tipo a Dead Internet Theory, em que a IA cria conteúdo e a IA o consome
Mesmo que isso soe ineficiente, a internet nunca foi um espaço eficiente
Se eu quisesse uma resposta de IA, teria perguntado diretamente
O motivo para perguntar a um humano é querer uma resposta humana
É como comer fast-food de vez em quando, mas ficar irritado se servirem um Big Mac num restaurante sofisticado
Ele pega uma ideia simples e a estica em frases longas e formais para parecer plausível
As pessoas colocam suas próprias ideias no LLM e gostam do resultado porque ele bate com o que pensam,
mas para os outros isso é só perda de tempo lendo textão desnecessário
Era só resumir em bullet points
Por isso, quando alguém manda uma resposta escrita por IA, parece uma grosseria equivalente a mandar um link do LMGTFY
Eu também sei perguntar para uma IA, então mandar isso no meu lugar não agrega valor nenhum
No fim, se os produtores não pagarem os consumidores, esse ecossistema vai ruir
Muita gente também não gosta “da nossa IA”; só não empurra isso para os outros
Do ponto de vista de quem gerencia uma equipe, quem abusa disso se torna um caso óbvio para corte
O resultado é que a empresa virou um mercado de drones arremessando lixo de IA
Eu não sou web designer, então recebi ajuda para criar um site visualmente agradável
Mas os ensaios e as diretrizes foram todos escritos por humanos
Ainda assim, foi bom deixar explícito o uso de IA
Link de divulgação de IA
Já soa como conversa cotidiana
Diferente da mentira, bullshit não distorce os fatos, mas distorce a intenção do falante
Há também um conceito parecido, o Gish-gallop — uma técnica de debate que desperdiça o tempo do outro despejando inúmeras alegações falsas e pontos difíceis de refutar
Tenho receio de criar tensão ao dizer a um colega para parar de usar resultados de IA não verificados
E seria ainda mais constrangedor se aquilo tivesse sido realmente escrito pela própria pessoa
Será que eles vão responder de novo com outro textão?
Abordar isso em uma conversa paralela, e não em um canal público, funcionou bem
Também é bom propor uma política de uso de IA da equipe para ter isso como base na conversa
A menos que a liderança técnica imponha isso, é melhor abordar no formato de review da equipe
Antes, mesmo quando eu escrevia documentos com cuidado, ninguém lia,
agora, se você manda um documento de 3000 páginas feito por IA, ninguém lê e mesmo assim aprova
Não é perfeito, mas ainda acho melhor do que a época em que eu precisava ler por eles nas reuniões
Na era da IA, não sei se esse papel vai se tornar inútil, ou se no fim todos nós vamos sobrar apenas como reviewers