1 pontos por GN⁺ 2025-08-30 | 1 comentários | Compartilhar no WhatsApp
  • A Anthropic atualizou os termos de uso para consumidores e a política de privacidade
  • Os usuários agora podem escolher diretamente se permitem que seus dados sejam usados para melhorar o modelo
  • A mudança se aplica aos planos Claude Free, Pro e Max, e não inclui usuários de serviços comerciais e da API
  • Ao permitir o fornecimento de dados, o usuário pode contribuir para o reforço da segurança do modelo e para a melhoria de recursos, como programação, em modelos futuros
  • O consentimento para uso dos dados, o período de retenção e outras mudanças podem ser gerenciados a qualquer momento nas configurações

Principais pontos da atualização

  • A Anthropic atualizou os termos de uso para consumidores e a política de privacidade para melhorar o desempenho da IA Claude e reforçar a proteção dos usuários
  • Os usuários podem escolher se desejam fornecer seus dados para aprimorar os modelos do Claude e fortalecer suas proteções de segurança
  • Nas configurações, é possível ajustar a qualquer momento se os dados podem ou não ser fornecidos

Quem é afetado e exceções

  • Esta atualização se aplica apenas aos planos Claude Free, Pro e Max, bem como aos usuários do Claude Code nesses planos
  • Serviços sob termos comerciais, como Claude for Work, Claude Gov, Claude for Education e uso da API (inclusive via terceiros, como Amazon Bedrock e Google Cloud Vertex AI), não são afetados

Impacto do consentimento para uso de dados

  • Se o usuário concordar em fornecer dados, haverá melhorias na segurança do modelo e maior precisão dos sistemas de prevenção de danos e uso indevido
  • Isso também pode contribuir para aprimorar diversas capacidades dos futuros modelos Claude, como programação, análise e raciocínio
  • Essa configuração permanece sempre sob controle direto do usuário, e a opção pode ser escolhida no cadastro ou, para usuários existentes, por meio de uma janela pop-up

Aviso e entrada em vigor

  • Os usuários serão informados sobre a atualização e a possibilidade de alterar as configurações por meio de um aviso no aplicativo
  • Usuários existentes poderão decidir sobre a aceitação dos termos e o fornecimento de dados até 28 de setembro de 2025
  • Ao concordar, a nova política passa a valer imediatamente e se aplica apenas a conversas ou sessões de programação novas ou retomadas
  • Após 28 de setembro de 2025, será necessário escolher manualmente a configuração para continuar usando o Claude
  • As opções podem ser alteradas em Privacy Settings

Extensão do período de retenção de dados

  • Ao consentir com o fornecimento de dados para treinamento do modelo, o período de retenção é estendido para 5 anos
  • Essa extensão se aplica apenas a conversas e sessões de programação novas ou retomadas e será usada para melhorar o modelo e reforçar a segurança
  • Se a conversa for excluída, esses dados não serão usados em treinamentos futuros do modelo
  • Se o usuário não concordar com o fornecimento de dados, a política atual de retenção de 30 dias será mantida

Tratamento de dados de feedback

  • O feedback dos usuários também estará sujeito à política de retenção de 5 anos

Privacidade e forma de tratamento dos dados

  • A Anthropic filtra e pseudonimiza dados sensíveis com ferramentas e processos automatizados para proteger a privacidade do usuário
  • Os dados dos usuários não são vendidos a terceiros

Mais informações

  • Mudanças detalhadas nos termos de uso para consumidores e na política de privacidade podem ser consultadas na seção de FAQ

1 comentários

 
GN⁺ 2025-08-30
Comentários do Hacker News
  • Fico me perguntando se usuários poderiam contaminar futuros conjuntos de dados de treinamento deixando sempre feedback negativo mesmo quando de fato foram ajudados, ou guiando maliciosamente a conversa para uma direção destrutiva e depois deixando um feedback muito positivo

  • Não gosto do fato de isso ser apresentado como se o padrão fosse opt-in, quando na prática é opt-out, induzido por um prompt que parece apenas uma simples atualização dos termos; também acho excessiva a retenção de dados por 5 anos, suspeito que haja outras partes problemáticas nos novos termos e, no fim, isso foi o que me levou a cancelar a assinatura

    • Notei que, em todas as outras configurações da Anthropic, o interruptor fica azul quando ativado e preto quando desativado, mas só nesta caixa de aviso da mudança o slider fica cinza nos dois estados; dá para ver a diferença indo nas preferências, e isso decepciona e deixa um gosto amargo, porque parece algo feito de propósito
    • Quero contestar a expressão “opt-in by default”; na prática, o certo é “opt-out”, já que a configuração de opt-out é o padrão
    • Menciona a parte de “retenção por 5 anos”: uma vez que algo foi usado no treinamento do modelo, ele fica lá para sempre
    • O que realmente preocupa é essa retenção de 5 anos; se eles continuarem mudando os termos e reapresentando a opção de opt-out ao longo dos próximos 5 anos, basta um clique acidental uma única vez para levarem todos os dados; depois podem até remover o próprio opt-out; também podem mudar os termos daqui a 4 anos e 364 dias e aumentar para 10 anos de retenção; até lá, a privacidade já pode estar tão enfraquecida que ninguém mais nem perceba que essa opção deixou de existir
    • Quando abri o app, apareceu um pop-up avisando da mudança junto com a opção de opt-out; em termos de transparência, isso parece razoável
  • O Claude está me ajudando na minha pesquisa em matemática; ao conversar e passar ao Claude ideias de pesquisa ainda não publicadas, me preocupo com a possibilidade de depois o Claude recomendar a mesma ideia para outra pessoa, que passaria a acreditar que a ideia é dela; senti que privacidade é indispensável no desenvolvimento de conhecimento com IA não só para contas comerciais, mas também para indivíduos

    • Alguém perguntou se isso não significaria apenas que o Claude acabou ajudando no trabalho de outra pessoa; como o Claude não sabe nada além do que está nos dados de treinamento e nas próprias conversas do usuário, isso seria um mecanismo clássico de IA
    • Vejo a IA como uma enorme máquina de associações; na pesquisa matemática, sempre levou muito tempo distinguir entre “uma ideia em que ninguém pensou” e “uma ideia em que alguém já pensou”; antes, isso envolvia muito processo iterativo buscando palavras-chave na internet, no MathSciNet, no ArXiv etc.; com IA, investi mais de 6 meses aprendendo a escrever prompts que geram respostas raras; a capacidade de generalização da IA acaba confundindo ainda mais; por exemplo, paradoxalmente, quando ela parece mais original, na verdade pode estar apenas conectando partes em que todos já tinham pensado; se o prompt for bem feito, a IA também consegue ligar ideias dessa forma
    • Se você escolher o opt-out no pop-up relacionado aos novos termos, seus chats não serão usados no treinamento
    • Se o trabalho for realmente original, a chance de ele aparecer depois nesses modelos é muito baixa; esses sistemas essencialmente produzem saídas generalizadas com base em dados compartilhados por muita gente, então um conceito precisa ser muito comum nos dados de treinamento para aparecer na inferência; na prática, é uma estrutura que protege tanto a inovação quanto a privacidade; se for um conceito já relativamente difundido, então ele também já merece entrar no corpo de conhecimento público, excetuando questões de PI
    • Há uma fronteira nebulosa sobre até onde empresas de IA vão explorar conhecimento humano que elas de fato não possuem; talvez essa fronteira nem esteja sendo traçada
  • Era previsível; os principais players já estão chegando ao limite de treinar com praticamente todos os dados possíveis da internet inteira e até com conteúdo pirateado que já gerou processos; como não houve grande inovação em arquitetura de modelos nos últimos anos, agora a guerra é por mais dados de treinamento, e no fim eles estendem a mão até os dados dos usuários, recorrendo a meios cada vez mais suspeitos

    • Centenas de data brokers também querem dados dos usuários, mas empresas de IA já têm um canal pronto em que os usuários fornecem dados voluntariamente todos os dias; elas só precisam de mudanças nos termos com dark patterns e um pouco de gestão de PR, e toda essa controvérsia será esquecida em uma semana
    • É interessante ver modelos de IA recentes sofrendo queda de qualidade ao treinar em dados autogerados; talvez a situação fosse diferente se tivessem separado com mais cuidado conteúdo humano e conteúdo de IA, ou fechado acordos com editoras; mas todos correram para raspar tudo o que podiam e, no fim, todo mundo sai perdendo
    • A questão nem é se houve “roubo”; eles próprios admitiram em tribunal a prática de cópia ilegal
    • Para empresas de IA, dados são uma mina de ouro muito mais poderosa do que para o setor de publicidade; são algo essencial para a sobrevivência; o verdadeiro problema está no tipo de prática antiética que pode surgir no encontro entre IA e publicidade; imagino que Google e Facebook já estejam integrando entre si suas respectivas plataformas de dados, e fico entre a curiosidade e a preocupação com os casos de uso que surgirão no dia em que isso for abertamente permitido
    • Casos assim mostram a necessidade de regulação e salvaguardas mais fortes
  • Muita gente não está surpresa, mas para mim isso é bem chocante; por exemplo, o Google não coloca o conteúdo do Gmail do usuário nos resultados de busca, então isso me parece uma decisão de negócios autodestrutiva; fico pensando se não estou deixando passar alguma coisa

    • O Gmail também analisou emails por anos até 2017 para servir anúncios link
    • Graças a esta matéria link, descobri que essa mudança de política não se aplica a contas Claude corporativas nem educacionais, que mantêm as proteções de privacidade anteriores; na prática, contas gratuitas ou não comerciais são um grupo com o qual a Anthropic se importa menos porque não dá dinheiro; essa decisão parece uma tentativa de reduzir a entrada desses “usuários grátis”, e imagino que em breve venha algo como “ouvimos o feedback de vocês e estamos lançando um novo produto focado em privacidade, por apenas US$ 30 por mês”
    • Esses dados são muito úteis para aprendizado por reforço, outras empresas também fazem isso e, além disso, existe a opção de opt-out se necessário
    • O enquadramento de que a reação seria de surpresa em si já é estranho; era exatamente o que todos esperavam
    • O Google também explora profundamente os emails para vários fins, como marketing ou repasse a governos; mas colocar o conteúdo do email nos resultados de busca é diferente de o Claude usar isso para treinamento, e o Google não sofreu grandes punições por isso
  • Na verdade, sempre me incomodou o fato de a IA não conseguir aprender absolutamente nada com a interação com os usuários, especialmente por repetir os mesmos erros, e me surpreende que essa mudança só esteja acontecendo agora

    • Não há aprendizado em tempo real, nem meus dados são incorporados imediatamente; os dados de treinamento ainda vão para o treino do modelo, um processo que leva meses, e os dados de uma ou duas pessoas quase não afetam o fluxo da maioria dos usuários; em vez de refletir meu modo específico de trabalhar, o efeito de aprendizado tende a surgir apenas no que é comum entre vários usuários
    • Ela também não consegue aprender muita coisa a partir da própria interação, e as métricas de avaliação também se baseiam mais em critérios globais do que em usuários individuais, então o serviço só vai ficando mais genérico
    • É uma estratégia para obter mais dados pelo mesmo valor da assinatura; a chance de desconto ou reembolso é baixa
  • Se muita gente é contra, eu tendo a ver isso de forma positiva; permitir que LLMs aprendam com conversas passadas é muito importante para a evolução dos modelos; reconheço que, no longo prazo, pode ser perigoso concentrar conhecimento coletivo em poucas empresas, então no fim acho que a única solução será um modelo de “autocustódia”, em que cada organização ou pessoa rode e treine seus próprios modelos; claro que isso só será viável quando os custos caírem bastante

    • Acho que esse modelo seria bom se houvesse reciprocidade; mas eu pago US$ 20 por mês e ainda teria de fornecer dados de treinamento de graça para a Anthropic, o que não parece razoável
    • Acho que falta reconhecer que não se trata de “todos juntos melhorando os LLMs”, mas de fornecer dados de treinamento para um único LLM, o Claude
    • Se dados sensíveis como código-fonte corporativo, roteiros, informações de saúde ou finanças forem usados no treinamento, o risco aumenta
    • Acho que não tem problema se os LLMs não melhorarem tanto assim
    • Na verdade, mesmo que os LLMs melhorem, não está claro se a maioria dos usuários terá um ganho prático tão grande; no conjunto, talvez o saldo seja até negativo
  • O pior é que essa mudança de política só veio agora; eu já queria que usassem meus dados para treinamento e até acho que poderiam continuar aprendendo sem problema; se alguém quer ser extremamente obcecado com privacidade de dados, basta não usar seus próprios dados; eu penso exatamente o contrário, mas as empresas nem consideram esse perfil; fico irritado por o Google também não ter uma opção do tipo “usem ativamente todos os meus dados para treinamento”; eu já informei onde moro várias vezes e mesmo assim continuam esquecendo; tudo é desenhado com a premissa de que “ninguém quer compartilhar seus dados”; até entrevistas do DeepMind na área médica sempre começam por medo, desastre e obsessão com compartilhamento de dados; eu nunca sofri um grande dano por causa disso e, ao contrário, só vi benefícios para o avanço da medicina; no NHS também faço questão de marcar sempre a opção de “usem ativamente meus dados”, mas o padrão é sempre “recusar tudo”, então é trabalhoso; eu queria uma única opção mestre do tipo “usem todos os meus dados e não perguntem de novo”

    • Para eu me identificar mais com essa visão, eu teria que acreditar que as empresas ainda existem para servir os usuários; na prática, porém, minhas informações são usadas muito mais para coisas contrárias ao meu interesse, como me direcionar anúncios de produtos enganosos; empresas de IA também são em grande parte guiadas por VCs e focadas em lucro, não em desenvolver produtos para o usuário; agora estamos na era “MoviePass”, em que o usuário ainda é bem tratado para ganhar participação de mercado, mas depois a qualidade do serviço vai cair e o potencial de abuso só vai aumentar MoviePass Wikipedia
    • É difícil entender como alguém pode sustentar seriamente essa opinião sem pensamento crítico
    • Basta viver num país com sistema de saúde privado para perceber rapidamente o quanto dados médicos são um ativo de privacidade importantíssimo
    • Fico em dúvida se isso é trolling ou se a pessoa vive num mundo idealizado em que empresas colocam os usuários em primeiro lugar
    • Na minha vida, claramente há valores mais importantes do que “seria legal se os LLMs funcionassem um pouco melhor”
  • Eu acreditava que a Anthropic, no longo prazo, mirava uma base menor, porém tecnicamente forte, de usuários; em princípio, vou cancelar a assinatura; modelos open source ainda não atendem às minhas necessidades tão bem quanto o Claude, especialmente para preparação de testes de segurança baseados em normas ISO/IEEE, mas vou procurar uma solução

    • No fim, a única coisa que o usuário pode fazer é cancelar o serviço; é difícil esperar algo de leis ou regulações, e mesmo que existam, provavelmente serão contornadas com pagamento de custos; ao fornecer dados a um serviço web ou app, é preciso partir do princípio de que esses dados deixam de ser exclusivamente seus
  • Não entendo por que estão linkando uma matéria resumida por IA da perplexity.ai em vez do anúncio oficial direto; no comunicado real link, os pontos importantes são: haverá um pop-up no app avisando da mudança e permitindo escolher o opt-out; é possível fazer opt-out a qualquer momento no menu de configurações; entra em vigor em 28 de setembro; só se aplica quando a pessoa aceita os novos termos e renova a sessão; não se aplica a API/serviços externos, Claude Gov nem Claude for Education; o link original seria muito mais útil

    • Se existe opt-out, isso não me preocupa tanto; mas fico em dúvida se apps de terceiros integrados à API do Claude, como JetBrains AI e Zed, acabam decidindo o opt-in em nome do usuário; no caso de API, esse tipo de opção de treinamento jamais deveria vir como opt-in por padrão, e acho que o setor inteiro deveria seguir esse princípio
    • No pop-up do app que eu recebi, só havia botões e imagens, sem texto algum; até inspecionei o DOM achando que poderia ser um problema de modo escuro, mas não encontrei texto; achei que era só um aviso de novo recurso e ignorei; se eu não tivesse visto por acaso no Reddit que a política mudou, não saberia do conteúdo, e provavelmente muitos outros usuários também deixaram isso passar
    • Reconheço e corrigi meu comentário anterior, que não fazia sentido no contexto; originalmente era um link para vários resumos de matérias feitos pela perplexity.ai, mas um moderador trocou pelo anúncio original; muitos comentários foram julgamentos precipitados de quem só passou os olhos pelo resumo gerado por IA; na verdade, foi melhor terem trocado para a fonte original
    • Acho muito melhor linkar a fonte original do que vários resumos de matérias