- A partir de 24 de abril de 2026, os dados de usuários do Copilot Free·Pro·Pro+ serão usados para treinamento e aprimoramento de modelos de IA, e os usuários poderão recusar isso por meio da configuração de opt-out
- Usuários Business e Enterprise não serão afetados por esta mudança, e, se já tiverem recusado anteriormente, a escolha existente será mantida
- Os dados de treinamento incluem informações reais de interação no desenvolvimento, como código de entrada, resultados de saída, contexto ao redor do cursor e avaliações de feedback
- Repositórios corporativos, conteúdo privado e dados de usuários que fizeram opt-out não serão usados no treinamento, e os dados serão compartilhados apenas com afiliadas do GitHub, como a Microsoft
- O GitHub afirma que dados de interação reais de desenvolvedores são essenciais para melhorar precisão, segurança e capacidade de detecção de bugs, destacando a participação voluntária dos desenvolvedores
Atualização da política de uso de dados de interação do GitHub Copilot
- A partir de 24 de abril de 2026, os dados de interação de usuários do Copilot Free, Pro e Pro+ (entradas, saídas, snippets de código e contexto relacionado) passarão a ser usados para treinar e aprimorar modelos de IA
- No entanto, se o usuário fizer opt-out, os dados não serão usados no treinamento
- Usuários do Copilot Business e Enterprise não serão afetados por esta mudança
- Usuários que já haviam configurado a recusa de coleta de dados anteriormente manterão sua escolha atual, e seus dados não serão incluídos no treinamento a menos que haja consentimento explícito
- O GitHub afirma que esta mudança está alinhada às práticas padrão da indústria e contribui para melhorar a precisão, a segurança e a capacidade de detectar bugs dos modelos
- Os usuários podem alterar sua participação a qualquer momento na seção Privacy da página de configurações
Necessidade de treinamento com base em dados reais
- Os modelos iniciais do Copilot foram construídos com base em dados públicos e amostras de código criadas manualmente
- Depois, o treinamento passou a incluir dados de interação de funcionários da Microsoft, e foram confirmadas melhorias significativas, como aumento da taxa de aceitação (acceptance rate) em várias linguagens de programação
- Com base nesses resultados, o GitHub decidiu incluir dados reais de interação de desenvolvedores no treinamento para refletir diversos casos reais de uso
Itens de dados coletados e utilizados
- Os seguintes dados podem ser usados no treinamento do modelo
- Resultados de saída aceitos ou modificados pelo usuário
- Snippets de código e conteúdo das solicitações inseridos no Copilot
-
Contexto de código ao redor do cursor
- Comentários e conteúdo de documentação escritos pelo usuário
-
Nome de arquivos, estrutura do repositório e padrões de navegação
- Interações com recursos do Copilot (chat, sugestões inline etc.)
- Feedback sobre sugestões (avaliações de gostei/não gostei)
Dados que não são incluídos no treinamento
- Os dados abaixo não serão usados no treinamento do modelo
- Dados de interação de Copilot Business, Enterprise e repositórios de propriedade corporativa
- Dados de usuários que fizeram opt-out
- Conteúdo de issues, discussões e repositórios inativos (private at rest)
- No entanto, durante o uso do Copilot, o código de repositórios privados pode ser processado para execução do serviço e, se o usuário não tiver feito opt-out, pode ser incluído no treinamento
Escopo de compartilhamento e segurança dos dados
- Os dados coletados podem ser compartilhados com afiliadas do GitHub (por exemplo, a Microsoft)
- No entanto, eles não serão compartilhados com fornecedores terceiros de modelos de IA nem com prestadores de serviços externos
- O GitHub enfatiza que o avanço do desenvolvimento assistido por IA depende de dados reais de interação de desenvolvedores e já utiliza dados de funcionários da Microsoft e do GitHub no treinamento dos modelos
Escolha do usuário e impacto
- Se o usuário concordar em fornecer os dados, os modelos poderão obter melhorias como melhor entendimento do fluxo de trabalho de desenvolvimento, sugestões de código mais precisas e seguras e maior capacidade de detectar bugs antecipadamente
- Mesmo sem participar, os recursos atuais de IA do Copilot continuarão disponíveis normalmente
- O GitHub afirma receber com satisfação a participação voluntária para melhorar a qualidade para toda a comunidade de desenvolvedores, e dúvidas relacionadas podem ser consultadas na página de FAQ e discussões da comunidade
1 comentários
Comentários no Hacker News
Ao olhar a opção “Allow GitHub to use my data for AI model training” nas configurações do GitHub, dá para ligar ou desligar
Mas é engraçado como isso foi embalado como se fosse “acesso a recursos”
É meio irônico falarem de entregar dados de graça como se fosse um benefício
Não é tão confuso quanto a checkbox “public access prevention” ao criar um bucket do GCS
Eu evito usar isso de propósito na conta pessoal, então não entendo por que isso está sendo registrado
Na prática, estou entregando meus dados, mas a redação faz parecer que sou eu quem está perdendo alguma coisa
Foi anunciado que, a partir de 24 de abril, os dados de interação do GitHub Copilot seriam usados para treinamento de IA
O padrão é ativado, então é preciso desabilitar manualmente
Link para a página de configurações
Fico curioso se isso também vem ativado por padrão em contas business. Se sim, é uma política bem suspeita
Também foi pouco prestativo não colocarem um link de desativação no post do blog
Para desligar manualmente, é preciso ir por este caminho → Privacy → “Allow GitHub to use my data for AI model training” → Disabled
os dados de clientes corporativos não são usados para treinamento por obrigação contratual, e só usuários individuais podem controlar isso
Existe uma política interna para impedir que código de clientes seja usado em treinamento
O Copilot não tem como ignorar arquivos sensíveis como chaves de API ou senhas
No momento em que você abre a IDE, esse tipo de informação pode ser enviado para a Microsoft
Link para a discussão relacionada
Mas há duas configurações de exceção, e nenhuma das duas funciona
Mesmo abrindo PR, só bot responde e ninguém olha de verdade
Além disso, o Gemini 3 se recusa a gerar código ao refatorar código open source se julgar que isso contraria a intenção do desenvolvedor original
Acho que, para usuários pagos, o padrão deveria ser opt-in, não opt-out
Não entendo como Mario Rodriguez (@mariorod), do GitHub, tomou essa decisão
Desde o GitHub e da era da IA para cá, movi todo o meu código para repositórios git privados em servidor próprio
Deixou de haver motivo para pensar em licença open source
Não pretendo deixar meu código ser usado em treinamento comercial de IA
Se a ideia é fazer open source de forma séria, é hora de migrar para o Codeberg
Só faço manutenção dos projetos open source existentes, e projetos novos eu distribuo apenas como SaaS ou binário
Em vez disso, venho contribuindo para projetos de linguagem e de sistema operacional, ao mesmo tempo em que sinto a necessidade de retreinamento dos modelos
Na UE, fico curioso sobre a base legal dessa política
Os dados coletados podem incluir informações de identificação pessoal (PII), e segundo o GDPR,
é necessário “consentimento voluntário e explícito”
Se eu colocar meu número de telefone em uma linha de código para teste e isso for enviado ao Copilot, talvez eu possa até tomar medidas legais
Dizer que “essa abordagem está alinhada com o padrão da indústria” no fundo significa “está tudo bem porque os outros também fazem”
No fim, o GitHub parece querer preservar a base de código inteira de todos os usuários
Há um texto dizendo que os dados usados pelo Copilot podem ser compartilhados com todas as afiliadas da Microsoft
Não consigo ver uma opção para cancelar a assinatura do Copilot
Mesmo olhando as configurações de cobrança no celular, ela não aparece
Segundo a documentação oficial,
se você recebeu acesso gratuito como estudante, professor ou mantenedor de open source, não é possível cancelar
Ainda assim, o GitHub não tentou esconder essa mudança, e explicou publicamente o processo de opt-out
Passa totalmente uma sensação de dark pattern
No app Android, é difícil até encontrar a página de configurações, e a página nem funciona direito