1 pontos por GN⁺ 2026-03-28 | 1 comentários | Compartilhar no WhatsApp
  • A partir de 24 de abril de 2026, os dados de usuários do Copilot Free·Pro·Pro+ serão usados para treinamento e aprimoramento de modelos de IA, e os usuários poderão recusar isso por meio da configuração de opt-out
  • Usuários Business e Enterprise não serão afetados por esta mudança, e, se já tiverem recusado anteriormente, a escolha existente será mantida
  • Os dados de treinamento incluem informações reais de interação no desenvolvimento, como código de entrada, resultados de saída, contexto ao redor do cursor e avaliações de feedback
  • Repositórios corporativos, conteúdo privado e dados de usuários que fizeram opt-out não serão usados no treinamento, e os dados serão compartilhados apenas com afiliadas do GitHub, como a Microsoft
  • O GitHub afirma que dados de interação reais de desenvolvedores são essenciais para melhorar precisão, segurança e capacidade de detecção de bugs, destacando a participação voluntária dos desenvolvedores

Atualização da política de uso de dados de interação do GitHub Copilot

  • A partir de 24 de abril de 2026, os dados de interação de usuários do Copilot Free, Pro e Pro+ (entradas, saídas, snippets de código e contexto relacionado) passarão a ser usados para treinar e aprimorar modelos de IA
    • No entanto, se o usuário fizer opt-out, os dados não serão usados no treinamento
    • Usuários do Copilot Business e Enterprise não serão afetados por esta mudança
  • Usuários que já haviam configurado a recusa de coleta de dados anteriormente manterão sua escolha atual, e seus dados não serão incluídos no treinamento a menos que haja consentimento explícito
  • O GitHub afirma que esta mudança está alinhada às práticas padrão da indústria e contribui para melhorar a precisão, a segurança e a capacidade de detectar bugs dos modelos
  • Os usuários podem alterar sua participação a qualquer momento na seção Privacy da página de configurações

Necessidade de treinamento com base em dados reais

  • Os modelos iniciais do Copilot foram construídos com base em dados públicos e amostras de código criadas manualmente
  • Depois, o treinamento passou a incluir dados de interação de funcionários da Microsoft, e foram confirmadas melhorias significativas, como aumento da taxa de aceitação (acceptance rate) em várias linguagens de programação
  • Com base nesses resultados, o GitHub decidiu incluir dados reais de interação de desenvolvedores no treinamento para refletir diversos casos reais de uso

Itens de dados coletados e utilizados

  • Os seguintes dados podem ser usados no treinamento do modelo
    • Resultados de saída aceitos ou modificados pelo usuário
    • Snippets de código e conteúdo das solicitações inseridos no Copilot
    • Contexto de código ao redor do cursor

      • Comentários e conteúdo de documentação escritos pelo usuário
    • Nome de arquivos, estrutura do repositório e padrões de navegação

      • Interações com recursos do Copilot (chat, sugestões inline etc.)
      • Feedback sobre sugestões (avaliações de gostei/não gostei)

Dados que não são incluídos no treinamento

  • Os dados abaixo não serão usados no treinamento do modelo
    • Dados de interação de Copilot Business, Enterprise e repositórios de propriedade corporativa
    • Dados de usuários que fizeram opt-out
    • Conteúdo de issues, discussões e repositórios inativos (private at rest)
      • No entanto, durante o uso do Copilot, o código de repositórios privados pode ser processado para execução do serviço e, se o usuário não tiver feito opt-out, pode ser incluído no treinamento

Escopo de compartilhamento e segurança dos dados

  • Os dados coletados podem ser compartilhados com afiliadas do GitHub (por exemplo, a Microsoft)
  • No entanto, eles não serão compartilhados com fornecedores terceiros de modelos de IA nem com prestadores de serviços externos
  • O GitHub enfatiza que o avanço do desenvolvimento assistido por IA depende de dados reais de interação de desenvolvedores e já utiliza dados de funcionários da Microsoft e do GitHub no treinamento dos modelos

Escolha do usuário e impacto

  • Se o usuário concordar em fornecer os dados, os modelos poderão obter melhorias como melhor entendimento do fluxo de trabalho de desenvolvimento, sugestões de código mais precisas e seguras e maior capacidade de detectar bugs antecipadamente
  • Mesmo sem participar, os recursos atuais de IA do Copilot continuarão disponíveis normalmente
  • O GitHub afirma receber com satisfação a participação voluntária para melhorar a qualidade para toda a comunidade de desenvolvedores, e dúvidas relacionadas podem ser consultadas na página de FAQ e discussões da comunidade

1 comentários

 
GN⁺ 2026-03-28
Comentários no Hacker News
  • Ao olhar a opção “Allow GitHub to use my data for AI model training” nas configurações do GitHub, dá para ligar ou desligar
    Mas é engraçado como isso foi embalado como se fosse “acesso a recursos”
    É meio irônico falarem de entregar dados de graça como se fosse um benefício

    • Pelo menos o texto em si não é confuso
      Não é tão confuso quanto a checkbox “public access prevention” ao criar um bucket do GCS
    • Desativei todos os recursos relacionados ao Copilot, mas mesmo assim o uso do Copilot Chat aparece como 2%, o que me deixou surpreso
      Eu evito usar isso de propósito na conta pessoal, então não entendo por que isso está sendo registrado
    • A expressão “acesso a recursos” parece manipuladora demais
      Na prática, estou entregando meus dados, mas a redação faz parecer que sou eu quem está perdendo alguma coisa
    • Talvez o “benefício” seja que o modelo pode ser retreinado com meus dados e isso acabar me ajudando um pouco no futuro
    • No fim das contas, esse “recurso” é só o meu estilo de programação sendo refletido no próximo modelo
  • Foi anunciado que, a partir de 24 de abril, os dados de interação do GitHub Copilot seriam usados para treinamento de IA
    O padrão é ativado, então é preciso desabilitar manualmente
    Link para a página de configurações
    Fico curioso se isso também vem ativado por padrão em contas business. Se sim, é uma política bem suspeita

    • Não dá para acreditar que o padrão seja ativado
      Também foi pouco prestativo não colocarem um link de desativação no post do blog
      Para desligar manualmente, é preciso ir por este caminho → Privacy → “Allow GitHub to use my data for AI model training” → Disabled
    • Segundo uma resposta oficial da comunidade,
      os dados de clientes corporativos não são usados para treinamento por obrigação contratual, e só usuários individuais podem controlar isso
    • Se também fosse opt-in por padrão para usuários business, isso seria uma violação de política de segurança e privacidade
      Existe uma política interna para impedir que código de clientes seja usado em treinamento
    • Foi confirmado que dados de clientes do Copilot Business ou Enterprise não são usados para treinamento
    • O blog também declara explicitamente que “usuários Business e Enterprise não são afetados por esta mudança”
  • O Copilot não tem como ignorar arquivos sensíveis como chaves de API ou senhas
    No momento em que você abre a IDE, esse tipo de informação pode ser enviado para a Microsoft
    Link para a discussão relacionada

    • O Gemini CLI bloqueia variáveis de ambiente que contêm strings como ‘AUTH’
      Mas há duas configurações de exceção, e nenhuma das duas funciona
      Mesmo abrindo PR, só bot responde e ninguém olha de verdade
      Além disso, o Gemini 3 se recusa a gerar código ao refatorar código open source se julgar que isso contraria a intenção do desenvolvedor original
    • Na verdade, o problema é manter arquivos sensíveis no repositório
    • Esse problema se repete não só no Copilot, mas também em issues do OpenAI Codex
    • Lembro que havia como configurar ignore path em nível de enterprise ou organização
  • Acho que, para usuários pagos, o padrão deveria ser opt-in, não opt-out
    Não entendo como Mario Rodriguez (@mariorod), do GitHub, tomou essa decisão

    • Pelo README dele, os principais interesses são “narrative shaping” e mudanças no “How we Work”, então isso parece ser uma continuação dessa abordagem
  • Desde o GitHub e da era da IA para cá, movi todo o meu código para repositórios git privados em servidor próprio
    Deixou de haver motivo para pensar em licença open source
    Não pretendo deixar meu código ser usado em treinamento comercial de IA
    Se a ideia é fazer open source de forma séria, é hora de migrar para o Codeberg

    • Tomei a mesma decisão
      Só faço manutenção dos projetos open source existentes, e projetos novos eu distribuo apenas como SaaS ou binário
      Em vez disso, venho contribuindo para projetos de linguagem e de sistema operacional, ao mesmo tempo em que sinto a necessidade de retreinamento dos modelos
    • Imagino que os TOS do GitHub tenham alguma cláusula de exceção de licença para operar o serviço
    • Hoje estou hospedando o Forgejo por conta própria, rodando runners no meu próprio hardware, e estou satisfeito
  • Na UE, fico curioso sobre a base legal dessa política
    Os dados coletados podem incluir informações de identificação pessoal (PII), e segundo o GDPR,
    é necessário “consentimento voluntário e explícito”

    • O GDPR proíbe opt-out como padrão
      Se eu colocar meu número de telefone em uma linha de código para teste e isso for enviado ao Copilot, talvez eu possa até tomar medidas legais
    • Essa opção nem aparece nas minhas configurações do GitHub, então fico me perguntando se isso vale só para usuários dos EUA
  • Dizer que “essa abordagem está alinhada com o padrão da indústria” no fundo significa “está tudo bem porque os outros também fazem”

    • Mas a Anthropic usa opt-in, e ainda oferece desconto se você ativar
  • No fim, o GitHub parece querer preservar a base de código inteira de todos os usuários
    Há um texto dizendo que os dados usados pelo Copilot podem ser compartilhados com todas as afiliadas da Microsoft

  • Não consigo ver uma opção para cancelar a assinatura do Copilot
    Mesmo olhando as configurações de cobrança no celular, ela não aparece
    Segundo a documentação oficial,
    se você recebeu acesso gratuito como estudante, professor ou mantenedor de open source, não é possível cancelar

  • Ainda assim, o GitHub não tentou esconder essa mudança, e explicou publicamente o processo de opt-out

    • Mas o e-mail não traz link direto, nem menciona o nome exato da configuração
      Passa totalmente uma sensação de dark pattern
    • Na prática, fazer opt-out não é tão simples
      No app Android, é difícil até encontrar a página de configurações, e a página nem funciona direito