- A Anthropic atualizou os termos de uso para consumidores e a política de privacidade
- Os usuários agora podem escolher diretamente se permitem que seus dados sejam usados para melhorar o modelo
- A mudança se aplica aos planos Claude Free, Pro e Max, e não inclui usuários de serviços comerciais e da API
- Ao permitir o fornecimento de dados, o usuário pode contribuir para o reforço da segurança do modelo e para a melhoria de recursos, como programação, em modelos futuros
- O consentimento para uso dos dados, o período de retenção e outras mudanças podem ser gerenciados a qualquer momento nas configurações
Principais pontos da atualização
- A Anthropic atualizou os termos de uso para consumidores e a política de privacidade para melhorar o desempenho da IA Claude e reforçar a proteção dos usuários
- Os usuários podem escolher se desejam fornecer seus dados para aprimorar os modelos do Claude e fortalecer suas proteções de segurança
- Nas configurações, é possível ajustar a qualquer momento se os dados podem ou não ser fornecidos
Quem é afetado e exceções
- Esta atualização se aplica apenas aos planos Claude Free, Pro e Max, bem como aos usuários do Claude Code nesses planos
- Serviços sob termos comerciais, como Claude for Work, Claude Gov, Claude for Education e uso da API (inclusive via terceiros, como Amazon Bedrock e Google Cloud Vertex AI), não são afetados
Impacto do consentimento para uso de dados
- Se o usuário concordar em fornecer dados, haverá melhorias na segurança do modelo e maior precisão dos sistemas de prevenção de danos e uso indevido
- Isso também pode contribuir para aprimorar diversas capacidades dos futuros modelos Claude, como programação, análise e raciocínio
- Essa configuração permanece sempre sob controle direto do usuário, e a opção pode ser escolhida no cadastro ou, para usuários existentes, por meio de uma janela pop-up
Aviso e entrada em vigor
- Os usuários serão informados sobre a atualização e a possibilidade de alterar as configurações por meio de um aviso no aplicativo
- Usuários existentes poderão decidir sobre a aceitação dos termos e o fornecimento de dados até 28 de setembro de 2025
- Ao concordar, a nova política passa a valer imediatamente e se aplica apenas a conversas ou sessões de programação novas ou retomadas
- Após 28 de setembro de 2025, será necessário escolher manualmente a configuração para continuar usando o Claude
- As opções podem ser alteradas em Privacy Settings
Extensão do período de retenção de dados
- Ao consentir com o fornecimento de dados para treinamento do modelo, o período de retenção é estendido para 5 anos
- Essa extensão se aplica apenas a conversas e sessões de programação novas ou retomadas e será usada para melhorar o modelo e reforçar a segurança
- Se a conversa for excluída, esses dados não serão usados em treinamentos futuros do modelo
- Se o usuário não concordar com o fornecimento de dados, a política atual de retenção de 30 dias será mantida
Tratamento de dados de feedback
- O feedback dos usuários também estará sujeito à política de retenção de 5 anos
Privacidade e forma de tratamento dos dados
- A Anthropic filtra e pseudonimiza dados sensíveis com ferramentas e processos automatizados para proteger a privacidade do usuário
- Os dados dos usuários não são vendidos a terceiros
Mais informações
- Mudanças detalhadas nos termos de uso para consumidores e na política de privacidade podem ser consultadas na seção de FAQ
1 comentários
Comentários do Hacker News
Fico me perguntando se usuários poderiam contaminar futuros conjuntos de dados de treinamento deixando sempre feedback negativo mesmo quando de fato foram ajudados, ou guiando maliciosamente a conversa para uma direção destrutiva e depois deixando um feedback muito positivo
Não gosto do fato de isso ser apresentado como se o padrão fosse
opt-in, quando na prática éopt-out, induzido por um prompt que parece apenas uma simples atualização dos termos; também acho excessiva a retenção de dados por 5 anos, suspeito que haja outras partes problemáticas nos novos termos e, no fim, isso foi o que me levou a cancelar a assinaturaO Claude está me ajudando na minha pesquisa em matemática; ao conversar e passar ao Claude ideias de pesquisa ainda não publicadas, me preocupo com a possibilidade de depois o Claude recomendar a mesma ideia para outra pessoa, que passaria a acreditar que a ideia é dela; senti que privacidade é indispensável no desenvolvimento de conhecimento com IA não só para contas comerciais, mas também para indivíduos
Era previsível; os principais players já estão chegando ao limite de treinar com praticamente todos os dados possíveis da internet inteira e até com conteúdo pirateado que já gerou processos; como não houve grande inovação em arquitetura de modelos nos últimos anos, agora a guerra é por mais dados de treinamento, e no fim eles estendem a mão até os dados dos usuários, recorrendo a meios cada vez mais suspeitos
Muita gente não está surpresa, mas para mim isso é bem chocante; por exemplo, o Google não coloca o conteúdo do Gmail do usuário nos resultados de busca, então isso me parece uma decisão de negócios autodestrutiva; fico pensando se não estou deixando passar alguma coisa
Na verdade, sempre me incomodou o fato de a IA não conseguir aprender absolutamente nada com a interação com os usuários, especialmente por repetir os mesmos erros, e me surpreende que essa mudança só esteja acontecendo agora
Se muita gente é contra, eu tendo a ver isso de forma positiva; permitir que LLMs aprendam com conversas passadas é muito importante para a evolução dos modelos; reconheço que, no longo prazo, pode ser perigoso concentrar conhecimento coletivo em poucas empresas, então no fim acho que a única solução será um modelo de “autocustódia”, em que cada organização ou pessoa rode e treine seus próprios modelos; claro que isso só será viável quando os custos caírem bastante
O pior é que essa mudança de política só veio agora; eu já queria que usassem meus dados para treinamento e até acho que poderiam continuar aprendendo sem problema; se alguém quer ser extremamente obcecado com privacidade de dados, basta não usar seus próprios dados; eu penso exatamente o contrário, mas as empresas nem consideram esse perfil; fico irritado por o Google também não ter uma opção do tipo “usem ativamente todos os meus dados para treinamento”; eu já informei onde moro várias vezes e mesmo assim continuam esquecendo; tudo é desenhado com a premissa de que “ninguém quer compartilhar seus dados”; até entrevistas do DeepMind na área médica sempre começam por medo, desastre e obsessão com compartilhamento de dados; eu nunca sofri um grande dano por causa disso e, ao contrário, só vi benefícios para o avanço da medicina; no NHS também faço questão de marcar sempre a opção de “usem ativamente meus dados”, mas o padrão é sempre “recusar tudo”, então é trabalhoso; eu queria uma única opção mestre do tipo “usem todos os meus dados e não perguntem de novo”
Eu acreditava que a Anthropic, no longo prazo, mirava uma base menor, porém tecnicamente forte, de usuários; em princípio, vou cancelar a assinatura; modelos open source ainda não atendem às minhas necessidades tão bem quanto o Claude, especialmente para preparação de testes de segurança baseados em normas ISO/IEEE, mas vou procurar uma solução
Não entendo por que estão linkando uma matéria resumida por IA da perplexity.ai em vez do anúncio oficial direto; no comunicado real link, os pontos importantes são: haverá um pop-up no app avisando da mudança e permitindo escolher o opt-out; é possível fazer opt-out a qualquer momento no menu de configurações; entra em vigor em 28 de setembro; só se aplica quando a pessoa aceita os novos termos e renova a sessão; não se aplica a API/serviços externos, Claude Gov nem Claude for Education; o link original seria muito mais útil