1 pontos por GN⁺ 2025-08-30 | 1 comentários | Compartilhar no WhatsApp
  • Claude, da Anthropic, passará a usar seus próprios dados para treinamento de IA
  • Os dados inseridos pelo usuário serão usados futuramente no treinamento de modelos para o desenvolvimento de sistemas de IA
  • Dados antigos ficam de fora; isso vale apenas para novos dados inseridos daqui para frente
  • Dados excluídos ou marcados como privados não serão usados no treinamento
  • O usuário pode escolher a opção de recusa de treinamento (opt-out) nas configurações

Mudança na política de coleta de dados e treinamento de IA do Claude

  • Usuários de contas do Claude, operado pela Anthropic, agora precisam estar cientes de que todos os dados inseridos no serviço poderão ser usados para treinamento de IA
  • Essa política se aplica a novos dados inseridos daqui em diante, e não aos dados fornecidos anteriormente
  • Dados excluídos pelo usuário e dados marcados como privados não serão incluídos no conjunto de dados de treinamento de IA devido a um processamento separado
  • A Anthropic informa, por meio das orientações do serviço, que quem quiser pode recusar o uso dos dados para treinamento na opção das configurações (opt-out)
  • Trata-se de uma política que busca aplicar um equilíbrio entre o avanço dos serviços de IA e a proteção dos dados dos usuários

1 comentários

 
GN⁺ 2025-08-30
Opinião no Hacker News
  • Sinceramente, essas empresas já roubaram terabytes de dados e nem divulgam os datasets, então eu parto do princípio de que, seja lá o que eu jogar no serviço, eles vão coletar tudo e usar para treinamento de qualquer forma
    • Ler textos publicados livremente na internet agora virou roubo? Acho isso uma interpretação excessivamente dura do direito de propriedade
    • Não acho que seja necessário partir desse pior pressuposto; não dá para assumir que todo mundo vai agir de má-fé, e também precisamos tomar cuidado para esse tipo de pensamento não virar o padrão
    • Acho que a opinião acima é a interpretação mais razoável
  • Eu já partia do princípio de que todos os dados já estavam sendo usados em treinamento de IA; fico pensando se só eu era assim
    • Em 2025, o maior problema em ciência da computação talvez seja convencer as pessoas de que "não estamos treinando IA com todos os seus dados pessoais". Sinceramente, até a Anthropic talvez tenha pensado que, como ninguém acredita que seus dados não estão sendo usados para treino, então melhor simplesmente usar mesmo. Na verdade, se dessem às pessoas uma opção que elas mesmas pudessem controlar, talvez a confiança até aumentasse
    • Eu realmente não entendo bem essa forma de pensar; não sei por que entrar já assumindo isso. Quando usei o Claude pela primeira vez, bastaram alguns minutos para verificar as configurações de privacidade. Eu sempre olho isso quando começo a usar qualquer serviço. Se você decide de forma cínica que tudo é compartilhado, acaba simplesmente não conferindo nada. Está logo ali em Configurações -> Privacidade
    • É a mesma ingenuidade de quem acredita que, ao apagar um documento dos servidores do Google/META/Apple/Microsoft, ele some de verdade. O Google provavelmente tem backups de tudo o que indexou nos últimos 20 anos; é num nível que até a Internet Archive invejaria
    • Eu já achava que contas gratuitas eram usadas para treinamento de IA. Pensava que, se houvesse dados que eu realmente não quisesse deixar, bastaria apagar do serviço. Mas incluir até contas pagas e ainda reter os dados por 5 anos é algo que eu não entendo
    • Claro, ainda há pessoas que acreditam no valor básico dos compromissos sociais. Mas depois de ver essas promessas sendo distorcidas e ignoradas sempre que se tornam inconvenientes, não surpreende que uma visão cínica se torne comum. A questão é como isso afeta as escolhas reais. No fim, o que antes era público vai ficando cada vez mais privado. Por isso, estou tentando usar versões locais e construir coisas sobre as quais eu tenha mais controle
  • Acho que mais tarde vai acabar vindo à tona que treinaram com os dados de todo mundo, independentemente de quem fez opt-out. Quero continuar usando o Claude, mas não quero que todas as soluções que eu criei se espalhem como se fossem conhecimento público
    • Tem a pergunta: quando foi que alguma empresa ignorou um pedido de opt-out? Parece que tem alguma coisa ainda mal resolvida aí
    • Eu não me importo que a empresa/IA melhore um pouco com o meu input em si. O que eu não quero é que isso fique diretamente ligado ao meu nome ou às minhas informações. Seria ótimo se valesse a regra de Chatham House (Chatham House Rule: o conteúdo da conversa pode ser compartilhado, mas a identidade de quem falou permanece anônima)
    • Fico curioso sobre por que você não quer compartilhar seus insights. Acho melhor compartilhar de forma direta do que deixar os dados vazarem via treinamento de IA, embora a sua formulação soe um pouco mais forte
  • No fim das contas, parece que estão ficando sem dados para treinamento. Fico me perguntando o quanto ainda dá para depender de dados e que tipo de "conhecimento" dá para extrair daí. Eu quase nunca dou feedback e, na maior parte das vezes (5 em 6), recebo resultados errados. Mesmo assim, não sei como eles julgariam que esse resultado teve valor
    • Eles podem usar um método parecido com o do Google: se o usuário clica em um certo link e não faz mais buscas, concluem que o resultado ajudou. Meu silêncio também pode ser interpretado como um sinal fraco de satisfação (claro, dependendo do padrão de uso do usuário)
    • No fim, seja lá o que usarem para treinamento, não se sabe se tem valor real. Se eu receber respostas erradas e não demonstrar insatisfação, a empresa provavelmente nem vai se importar muito
  • Isso me fez lembrar que isso aconteceu logo depois da divulgação do AI Safety Index, relatório que elogiou a Anthropic por não usar dados de usuários em treinamento, então eu também estava mais propenso a confiar e usar
    https://futureoflife.org/ai-safety-index-summer-2025/
  • A IA mais recente é baseada em dados. Confiar na promessa de que nossas conversas não serão usadas em treinamento é como dar a comida favorita de alguém muito guloso e pedir que prometa não comer. Dito isso, desde que a conversa não vaze completamente para fora, para mim tudo bem; eu já uso aceitando essas condições
    • Não devemos normalizar esse tipo de coisa. Obrigações contratuais precisam ser cumpridas e aplicadas, para proteger nossa privacidade e nossos direitos humanos
  • No app do iOS, assim que fiz login apareceu imediatamente um pop-up para configurar o opt-out. Foi um pouco incômodo, mas o jeito como lidaram com isso foi ok
    • Eu quero que um LLM como o Claude fique mais inteligente a partir das minhas conversas e do meu feedback. Acho extremamente frustrante não existir memória de longo prazo por usuário nem histórico de conversa embutido. Já faz 6 meses que peço à Anthropic um recurso de opt-in. Claro que eu entendo as questões de privacidade, mas, na minha área de especialização (pesquisa cognitiva, genética, neurofilosofia), eu quero que o Claude fique mais inteligente e quero compartilhar o que sei para conseguir um parceiro de ideias realmente bom
  • Difícil de acreditar. Em termos de privacidade, isso é um problema ético no nível das decisões notoriamente ruins da Meta. Foi um rollout realmente ruim. Esse modal (janela de configuração) apareceu direto nas minhas conversas já existentes. Eu nunca autorizei o uso dos meus dados, ideias, salário ou histórico familiar, mas temo que no PR eles venham com um "mas você deu opt-in no modal, não deu?"
    https://imgur.com/afqMi0Z
  • Não sei que dados eles usaram para treinamento, mas cancelei o Claude pela segunda vez. Os bugs de UI na interface web, esse pisca-pisca constante, também irritam, e ultimamente as respostas da IA ficaram negativas e arrogantes demais. É algo que eu não via antes, nem em outros LLMs. Talvez tenham tentado ajustar depois de críticas por ser bajulador e acabaram errando a mão. Agora ele tenta adivinhar meu comportamento e me critica além do contexto técnico. Quando uso o Gemini, ele sempre presume que eu estou irritado com a resposta, mas pelo menos não chega a ser rude. Então voltei para o chatgpt e sigo comparando os dois em testes
    • Usuários avançados precisam de controles ajustáveis, tipo a API: bajulação/segurança/desativar modo de proteção infantil etc. Seria bom até ter uma chavinha de desbloqueio, como num micro-ondas
  • Há um post parecido com este aqui
    • Pelo menos este post tem o aviso original que a Anthropic realmente enviou, então isso já dá algum valor. Para leigos, o resumo fornecido pelo Perplexity pode até ser mais agradável de ler