Política de uso de IA do Ghostty
(github.com/ghostty-org)- O projeto Ghostty aplica regras rigorosas para o uso de IA a contribuidores externos, e todo uso de IA deve ser obrigatoriamente divulgado
- Pull Requests gerados por IA só podem ser enviados para issues aprovadas, e serão rejeitados se forem sobre issues não aprovadas ou se houver suspeita de uso não declarado de IA
- Código escrito por IA deve ser obrigatoriamente verificado e testado por humanos, e é proibido gerar código automaticamente para ambientes aos quais não se tem acesso
- Assistência de IA é permitida em issues e discussões, mas todo o conteúdo deve ser revisado e editado por humanos, e conteúdo de mídia gerado por IA é totalmente proibido
- O Ghostty afirma acolher a própria IA, mas declara que o problema não é a ferramenta, e sim a falta de capacidade do usuário, mantendo a política para proteger os mantenedores
Regras de uso de IA
- Há obrigação de divulgar todo e qualquer uso de IA
- É preciso informar o nome da ferramenta usada (ex.: Claude Code, Cursor, Amp) e o grau de contribuição da IA
- Pull Requests gerados por IA só podem ser enviados para issues aprovadas
- PRs para issues não aprovadas serão fechados
- Se o uso de IA não for declarado, mas os mantenedores suspeitarem disso, o PR será rejeitado
- Código relacionado a issues não aprovadas pode ser compartilhado em discussões (Discussions)
- Código gerado por IA exige validação humana obrigatória
- É proibido enviar código hipotético que não tenha sido testado
- É proibido escrever código para plataformas às quais você não consegue acessar diretamente para testar
- Assistência de IA é permitida em issues e discussões, mas humanos devem sempre revisar e editar
- Conteúdo prolixo ou desnecessário gerado por IA deve ser organizado por humanos
- Mídia gerada por IA (imagens, vídeos, áudio etc.) é proibida, sendo permitidos apenas texto e código
- Usuários inadequados de IA ('bad AI drivers') podem ser repreendidos publicamente
- Desenvolvedores iniciantes são incentivados a aprender por conta própria em vez de depender de IA
Essas regras se aplicam apenas a contribuidores externos, e os mantenedores são exceção com base na confiança
Princípios operacionais centrados em humanos
- O Ghostty revisa diretamente, com humanos, todas as discussões, issues e PRs
- Como ponto de fronteira onde humanos interagem com humanos, trabalho de baixa qualidade e sem validação é considerado falta de respeito
- O mundo em que a IA produz resultados perfeitos ainda não chegou, e atualmente a qualidade depende da capacidade do usuário de IA ('driver')
- Por isso, regras rigorosas são necessárias para proteger os mantenedores
Posição favorável à IA
- O Ghostty usa ativamente ferramentas de IA, e os mantenedores também usam IA para aumentar a produtividade
- O objetivo da política não é ser anti-IA, mas evitar o abuso por usuários inexperientes
- O projeto busca manter transparência sobre o uso de IA e deixa claro que acolhe a IA
2 comentários
"""O motivo de aplicarmos uma política rigorosa para o uso de IA não é sermos contra a própria IA, mas porque há gente demais sem qualificação usando IA. O problema não é a ferramenta, e sim as pessoas."""
Comentários do Hacker News
Estou surpreso com a quantidade de spam de contribuições de baixa qualidade em open source hoje em dia
Contribuí apenas para alguns projetos pequenos, e aquele código foi o mais testado e revisado de tudo o que já escrevi
Sempre abordei isso com cuidado porque não queria desperdiçar o tempo dos outros
Mas fico perplexo que algumas pessoas pareçam não ter essa vergonha
Agora, com a caixa de Pandora da IA aberta, parece que elas sentem que ganharam uma “segunda chance”
Não é que não tenham vergonha; elas simplesmente não têm a perspectiva para sentir isso
Nós passamos anos lapidando habilidades e entendendo a profundidade do aprendizado, mas elas nunca trabalharam nem um dia na área, então não percebem a diferença
Também vejo com frequência gente colando respostas do GPT em grupos públicos
No fim, as pessoas só têm o desejo de tomar emprestada uma sensação de importância própria
Por isso eu apoio um code of conduct que ridicularize publicamente quem desperdiça o tempo dos outros
É para escrever uma linha como “contribuí para o Ghostty”, não para realmente ajudar
Hoje vivemos num mundo sem vergonha, e se você não entender isso vai ficar confuso e machucado
Você não precisa perder a vergonha, mas precisa aprender a entender esse sentimento
Mas na prática não era
Acho que a estrutura social do GitHub é a raiz do problema dos PRs de baixa qualidade
Quando surgiu a percepção de que “contribuiu para muitos projetos = bom desenvolvedor”, as pessoas começaram a explorar isso como se fosse um jogo
A IA só jogou lenha na fogueira, e no longo prazo esses incentivos precisam desaparecer
Ironicamente, a IA pode acabar deixando claro que isso não é mais um sinal de competência
Já existia “PR lixo para currículo”, e agora só ficou mais barato fazer isso
Existe uma barreira de entrada suficiente para que só quem realmente se importa envie patches com git send-email
Mas isso tem o efeito colateral de reduzir novos contribuidores
A política de uso de IA do Ghostty parece uma abordagem bem equilibrada
O ponto central é que a IA não pode substituir o raciocínio, os testes e a refatoração humanos
Quando eu criava funcionalidades com Codex, acabava tendo que reescrever muita coisa. O problema mais evidente era o abuso de abstrações desnecessárias
A forma como alguém escreve código é uma liberdade individual, desde que assuma a responsabilidade pelo resultado
Assim como ninguém exige divulgar ferramentas ou sistema operacional, não há motivo para obrigar a divulgar uso de IA
Estamos precisando disso porque o projeto está ficando lento por causa do código horrível de desenvolvedores terceirizados
Seria útil se viesse como sugestão padrão, como guia de contribuição ou código de conduta
O texto do Sam Altman parte da premissa de um futuro em que a IA será mais inteligente que humanos
No fim, está ficando borrada a fronteira de até onde os humanos ainda serão necessários
Gosto da expressão “bad AI drivers”
A IA é só uma ferramenta, mas PRs sem critério são como maus motoristas na estrada
No fim, esse pessoal vai parar no subreddit de dashcam da programação
Só corrigimos quando a IA entra no caminho errado
Pelo post de Mitchell Hashimoto no X,
ele diz que gostaria de ver o transcript completo da sessão de IA
Eu também tenho um projeto paralelo chamado git-prompt-story, que cola sessões do Claude em notas do GitHub
É desconfortável mostrar exatamente o caminho tortuoso do meu pensamento, e talvez isso ainda precise ser “organizado” depois
Fico pensando se realmente vale a pena fazer isso
Isso pode virar a verdadeira source of truth
É interessante a regra de “proibir mídia gerada por IA (imagem, áudio etc.), mas permitir apenas texto/código”
É como se texto e código fossem imunes à controvérsia
Mas, assim como empresas de IA coletaram dados artísticos sem permissão, código e texto também não são exceção
Hoje isso acalmou porque a maioria dos desenvolvedores usa LLM, mas do ponto de vista do Ghostty,
se proibissem também texto/código, acabariam bloqueando a maioria dos contribuidores, então provavelmente é uma escolha prática
Contribuí bastante com código open source para o treinamento de IA e também sofri diretamente os danos da automação causados por isso
Por isso acho que tenho autoridade moral para participar do debate sobre uso de IA em código
Já na arte, como eu não sou a pessoa prejudicada, é mais difícil adotar a mesma posição
No futuro, código escrito sem IA deve sobreviver apenas em áreas especializadas
“Divulgar uso de IA” provavelmente vai acabar virando um procedimento formal
Antes, se algo “funcionava + tinha código complexo”, acreditava-se que era obra de um desenvolvedor experiente,
mas agora esse sinal social desapareceu
Daqui para frente, reputação pessoal e marca vão importar mais, e o mito meritocrático de que “o código fala por si” vai balançar
No projeto Zulip também houve uma explosão recente de lixo gerado por IA (PRs)
Houve até caso com screenshots falsos feitos por IA
Estamos avisando ou bloqueando reincidentes
Queremos ajudar quem realmente quer aprender, não ficar brigando com contribuidores que só copiam e colam de LLM
Por isso criamos uma política de IA parecida com a do Ghostty, mas mais específica
Ela também orienta como usar IA de forma adequada, então vale a pena consultar