Diretrizes para uso de ferramentas de assistência por IA ao contribuir com o kernel Linux
(github.com/torvalds)- Documento oficial do kernel Linux, de Linus Torvalds, que afirma que, ao contribuir com ferramentas de codificação por IA, é preciso seguir exatamente o processo de desenvolvimento e o estilo de código existentes do kernel
- A IA não pode adicionar a tag Signed-off-by — legalmente, apenas humanos podem certificá-la, e o desenvolvedor humano assume toda a responsabilidade pela revisão do código gerado por IA, pela conformidade de licença e pela responsabilidade legal
- Em códigos com contribuição de IA, é preciso indicar o nome do modelo:versão e as ferramentas de análise em um formato como
Assisted-by: Claude:claude-3-opus coccinelle sparse- Ferramentas básicas de desenvolvimento como git, gcc e make ficam excluídas dessa indicação
- Todas as contribuições devem ser compatíveis com GPL-2.0-only e é obrigatório incluir o identificador de licença SPDX
1 comentários
Comentários do Hacker News
A regra básica é que pode usar IA, mas a responsabilidade pelo commit é inteiramente da pessoa
Parece senso comum que o código precisa cumprir a licença. É algo com que a maioria dos desenvolvedores provavelmente concorda
O surpreendente é precisar explicitar isso
Hoje em dia, muita gente publica em open source código gerado por IA sem nem entendê-lo e, quando dá problema depois, tenta escapar da responsabilidade dizendo “foi a IA”
Nessa situação, é natural que mantenedores sejam céticos em relação a código de IA
Alguns veem a política atual de Torvalds como uma traição, e há quem diga que nunca mais vai contribuir se código gerado por IA for mesclado
Isso parece um tanto contrastante, já que acabei de ver Greg KH aplicar o revisor Sashiko AI a todos os patches recentemente
O revisor de IA está de fato ajudando, mas a discussão ainda continua presa à “responsabilidade sobre código de IA”
O ponto realmente perigoso são condições de corrida e problemas de lock que a IA erra com confiança
Fico curioso se essa política é uma solução de longo prazo ou apenas um arranjo temporário antes de sistemas como o Sashiko reforçarem a filtragem do lado da manutenção
A política anunciada por Torvalds define claramente que humanos devem revisar, assinar e se responsabilizar pelo código de IA
Parece ter passado por revisão jurídica e pode acabar virando referência para desenvolvimento assistido por IA daqui para frente
Na prática, já aconteceu de meu nome entrar automaticamente quando meu patch foi incluído no refatoramento de outra pessoa
No fim, qualquer um pode adicionar “Co-developed-by” ou “Signed-off-by”, e quase não há força legal nisso
Como LLMs não conseguem indicar a origem, fico em dúvida sobre como garantir conformidade com licenças
O autor pode ser o usuário da IA ou o desenvolvedor do modelo, então a incerteza jurídica é grande
Nessa situação, no longo prazo, a própria licença do kernel pode acabar ficando sem efeito
Isso é tratado no artigo da KPMG Law sobre IA e direitos autorais
É estranho reutilizar a tag “Assisted-by:” para indicar modelos de IA
Originalmente era uma tag para mostrar ajuda de pessoas, mas agora passou a ter dois significados, o que causa confusão
Normalmente seria mais comum usar uma tag separada, como “AI-assistant:”
O caminho certo para open source é deixar clara a ligação entre humanos e agentes e fazer com que humanos assumam a responsabilidade pela validação final
Obrigado ao Linus
É bom ver o princípio sensato de que, mesmo se o código foi feito por IA, a responsabilidade continua sendo humana
Parece uma inversão do velho ditado “mau artesão culpa as ferramentas”
No fim das contas, a escolha da ferramenta e a responsabilidade por seu uso são da pessoa
Essa política não vai proteger o Linux de responsabilidade por violação de direitos autorais
É como uma loja dizer “acredito que o fornecedor tenha removido o THC”
Declarar por conta própria uma isenção não faz a responsabilidade legal desaparecer
Mesmo que código infrator seja incluído, o alvo de um processo seriam usuários do Linux ou empresas
Na prática, a chance de um processo desses acontecer é baixa
A comparação em si não se encaixa
Uma pessoa mal-intencionada pode copiar e colar código privado e assinar do mesmo jeito
No fim, o problema é o ser humano que mente
Há uma cláusula dizendo que todo código deve ser compatível com GPL-2.0-only,
mas, com IA treinada em código sob várias licenças, fico em dúvida sobre como isso pode ser garantido
Se a IA errar, a responsabilidade também é da pessoa. Se isso te deixa inseguro, melhor não usar IA
Mas, se a IA estiver consultando outras bases de código em tempo de execução, o risco pode ser maior
Mas essa abordagem pode acabar diluindo o sentido da licença
Um comentário como “foi 100% vibecoded, mas eu revisei” tem pouca força jurídica
Houve até a proposta de abrir uma issue de relicenciamento para domínio público em projetos “100% vibecoded” para chamar atenção para esse problema