- Claude, da Anthropic, passará a usar seus próprios dados para treinamento de IA
- Os dados inseridos pelo usuário serão usados futuramente no treinamento de modelos para o desenvolvimento de sistemas de IA
- Dados antigos ficam de fora; isso vale apenas para novos dados inseridos daqui para frente
- Dados excluídos ou marcados como privados não serão usados no treinamento
- O usuário pode escolher a opção de recusa de treinamento (opt-out) nas configurações
Mudança na política de coleta de dados e treinamento de IA do Claude
- Usuários de contas do Claude, operado pela Anthropic, agora precisam estar cientes de que todos os dados inseridos no serviço poderão ser usados para treinamento de IA
- Essa política se aplica a novos dados inseridos daqui em diante, e não aos dados fornecidos anteriormente
- Dados excluídos pelo usuário e dados marcados como privados não serão incluídos no conjunto de dados de treinamento de IA devido a um processamento separado
- A Anthropic informa, por meio das orientações do serviço, que quem quiser pode recusar o uso dos dados para treinamento na opção das configurações (opt-out)
- Trata-se de uma política que busca aplicar um equilíbrio entre o avanço dos serviços de IA e a proteção dos dados dos usuários
1 comentários
Opinião no Hacker News
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z