11 pontos por GN⁺ 2026-01-24 | 2 comentários | Compartilhar no WhatsApp
  • O projeto Ghostty aplica regras rigorosas para o uso de IA a contribuidores externos, e todo uso de IA deve ser obrigatoriamente divulgado
  • Pull Requests gerados por IA só podem ser enviados para issues aprovadas, e serão rejeitados se forem sobre issues não aprovadas ou se houver suspeita de uso não declarado de IA
  • Código escrito por IA deve ser obrigatoriamente verificado e testado por humanos, e é proibido gerar código automaticamente para ambientes aos quais não se tem acesso
  • Assistência de IA é permitida em issues e discussões, mas todo o conteúdo deve ser revisado e editado por humanos, e conteúdo de mídia gerado por IA é totalmente proibido
  • O Ghostty afirma acolher a própria IA, mas declara que o problema não é a ferramenta, e sim a falta de capacidade do usuário, mantendo a política para proteger os mantenedores

Regras de uso de IA

  • obrigação de divulgar todo e qualquer uso de IA
    • É preciso informar o nome da ferramenta usada (ex.: Claude Code, Cursor, Amp) e o grau de contribuição da IA
  • Pull Requests gerados por IA só podem ser enviados para issues aprovadas
    • PRs para issues não aprovadas serão fechados
    • Se o uso de IA não for declarado, mas os mantenedores suspeitarem disso, o PR será rejeitado
    • Código relacionado a issues não aprovadas pode ser compartilhado em discussões (Discussions)
  • Código gerado por IA exige validação humana obrigatória
    • É proibido enviar código hipotético que não tenha sido testado
    • É proibido escrever código para plataformas às quais você não consegue acessar diretamente para testar
  • Assistência de IA é permitida em issues e discussões, mas humanos devem sempre revisar e editar
    • Conteúdo prolixo ou desnecessário gerado por IA deve ser organizado por humanos
  • Mídia gerada por IA (imagens, vídeos, áudio etc.) é proibida, sendo permitidos apenas texto e código
  • Usuários inadequados de IA ('bad AI drivers') podem ser repreendidos publicamente
    • Desenvolvedores iniciantes são incentivados a aprender por conta própria em vez de depender de IA

Essas regras se aplicam apenas a contribuidores externos, e os mantenedores são exceção com base na confiança

Princípios operacionais centrados em humanos

  • O Ghostty revisa diretamente, com humanos, todas as discussões, issues e PRs
    • Como ponto de fronteira onde humanos interagem com humanos, trabalho de baixa qualidade e sem validação é considerado falta de respeito
  • O mundo em que a IA produz resultados perfeitos ainda não chegou, e atualmente a qualidade depende da capacidade do usuário de IA ('driver')
  • Por isso, regras rigorosas são necessárias para proteger os mantenedores

Posição favorável à IA

  • O Ghostty usa ativamente ferramentas de IA, e os mantenedores também usam IA para aumentar a produtividade
  • O objetivo da política não é ser anti-IA, mas evitar o abuso por usuários inexperientes
  • O projeto busca manter transparência sobre o uso de IA e deixa claro que acolhe a IA

2 comentários

 
darjeeling 2026-01-24

"""O motivo de aplicarmos uma política rigorosa para o uso de IA não é sermos contra a própria IA, mas porque há gente demais sem qualificação usando IA. O problema não é a ferramenta, e sim as pessoas."""

 
GN⁺ 2026-01-24
Comentários do Hacker News
  • Estou surpreso com a quantidade de spam de contribuições de baixa qualidade em open source hoje em dia
    Contribuí apenas para alguns projetos pequenos, e aquele código foi o mais testado e revisado de tudo o que já escrevi
    Sempre abordei isso com cuidado porque não queria desperdiçar o tempo dos outros
    Mas fico perplexo que algumas pessoas pareçam não ter essa vergonha

    • Antigamente, pessoas sem habilidade não entravam por esse caminho
      Agora, com a caixa de Pandora da IA aberta, parece que elas sentem que ganharam uma “segunda chance”
      Não é que não tenham vergonha; elas simplesmente não têm a perspectiva para sentir isso
      Nós passamos anos lapidando habilidades e entendendo a profundidade do aprendizado, mas elas nunca trabalharam nem um dia na área, então não percebem a diferença
    • Um cliente já contestou minha opinião me mandando um screenshot do GPT
      Também vejo com frequência gente colando respostas do GPT em grupos públicos
      No fim, as pessoas só têm o desejo de tomar emprestada uma sensação de importância própria
      Por isso eu apoio um code of conduct que ridicularize publicamente quem desperdiça o tempo dos outros
    • Muita gente contribui para grandes projetos open source apenas para colocar no currículo
      É para escrever uma linha como “contribuí para o Ghostty”, não para realmente ajudar
    • Precisamos reconhecer que a sociedade mudou
      Hoje vivemos num mundo sem vergonha, e se você não entender isso vai ficar confuso e machucado
      Você não precisa perder a vergonha, mas precisa aprender a entender esse sentimento
    • Quando trabalhei numa empresa de open source, a maioria das pessoas achava que sua contribuição era um presente
      Mas na prática não era
  • Acho que a estrutura social do GitHub é a raiz do problema dos PRs de baixa qualidade
    Quando surgiu a percepção de que “contribuiu para muitos projetos = bom desenvolvedor”, as pessoas começaram a explorar isso como se fosse um jogo
    A IA só jogou lenha na fogueira, e no longo prazo esses incentivos precisam desaparecer
    Ironicamente, a IA pode acabar deixando claro que isso não é mais um sinal de competência

    • Mesmo sem IA, ainda é o mesmo problema
      Já existia “PR lixo para currículo”, e agora só ficou mais barato fazer isso
    • Um workflow baseado em mailing list reduz esse tipo de problema
      Existe uma barreira de entrada suficiente para que só quem realmente se importa envie patches com git send-email
      Mas isso tem o efeito colateral de reduzir novos contribuidores
  • A política de uso de IA do Ghostty parece uma abordagem bem equilibrada
    O ponto central é que a IA não pode substituir o raciocínio, os testes e a refatoração humanos
    Quando eu criava funcionalidades com Codex, acabava tendo que reescrever muita coisa. O problema mais evidente era o abuso de abstrações desnecessárias

    • Tirando a primeira cláusula, todo o resto parece razoável
      A forma como alguém escreve código é uma liberdade individual, desde que assuma a responsabilidade pelo resultado
      Assim como ninguém exige divulgar ferramentas ou sistema operacional, não há motivo para obrigar a divulgar uso de IA
    • Pretendo usar isso como referência para as diretrizes internas de IA da nossa empresa
      Estamos precisando disso porque o projeto está ficando lento por causa do código horrível de desenvolvedores terceirizados
    • Seria bom se o GitHub oferecesse essa política como template
      Seria útil se viesse como sugestão padrão, como guia de contribuição ou código de conduta
    • A política é equilibrada, mas a frase “a IA não substitui humanos” é interessante
      O texto do Sam Altman parte da premissa de um futuro em que a IA será mais inteligente que humanos
      No fim, está ficando borrada a fronteira de até onde os humanos ainda serão necessários
  • Gosto da expressão “bad AI drivers”
    A IA é só uma ferramenta, mas PRs sem critério são como maus motoristas na estrada
    No fim, esse pessoal vai parar no subreddit de dashcam da programação

    • Na prática, a IA é que está dirigindo e nós estamos mais para a pessoa no banco do passageiro
      Só corrigimos quando a IA entra no caminho errado
  • Pelo post de Mitchell Hashimoto no X,
    ele diz que gostaria de ver o transcript completo da sessão de IA
    Eu também tenho um projeto paralelo chamado git-prompt-story, que cola sessões do Claude em notas do GitHub

    • Tornar o registro da sessão público tem dois lados
      É desconfortável mostrar exatamente o caminho tortuoso do meu pensamento, e talvez isso ainda precise ser “organizado” depois
    • Eu também já tentei salvar prompts antes, mas o valor prático não era tão grande
      Fico pensando se realmente vale a pena fazer isso
    • Acho melhor anexar o arquivo de plano criado no modo Plan do Claude
      Isso pode virar a verdadeira source of truth
    • A IA talvez possa ajudar a organizar esse tipo de registro
    • Nosso time está discutindo anexar sessões do Claude em tickets do Jira, em vez de no GitHub
  • É interessante a regra de “proibir mídia gerada por IA (imagem, áudio etc.), mas permitir apenas texto/código”
    É como se texto e código fossem imunes à controvérsia
    Mas, assim como empresas de IA coletaram dados artísticos sem permissão, código e texto também não são exceção

    • Houve uma grande reação quando a Microsoft usou repositórios do GitHub como dados de treinamento de IA
      Hoje isso acalmou porque a maioria dos desenvolvedores usa LLM, mas do ponto de vista do Ghostty,
      se proibissem também texto/código, acabariam bloqueando a maioria dos contribuidores, então provavelmente é uma escolha prática
    • Não é que código seja menos importante que arte, e sim uma questão de autoridade e limites
      Contribuí bastante com código open source para o treinamento de IA e também sofri diretamente os danos da automação causados por isso
      Por isso acho que tenho autoridade moral para participar do debate sobre uso de IA em código
      Já na arte, como eu não sou a pessoa prejudicada, é mais difícil adotar a mesma posição
  • No futuro, código escrito sem IA deve sobreviver apenas em áreas especializadas
    “Divulgar uso de IA” provavelmente vai acabar virando um procedimento formal
    Antes, se algo “funcionava + tinha código complexo”, acreditava-se que era obra de um desenvolvedor experiente,
    mas agora esse sinal social desapareceu
    Daqui para frente, reputação pessoal e marca vão importar mais, e o mito meritocrático de que “o código fala por si” vai balançar

  • No projeto Zulip também houve uma explosão recente de lixo gerado por IA (PRs)
    Houve até caso com screenshots falsos feitos por IA
    Estamos avisando ou bloqueando reincidentes
    Queremos ajudar quem realmente quer aprender, não ficar brigando com contribuidores que só copiam e colam de LLM
    Por isso criamos uma política de IA parecida com a do Ghostty, mas mais específica

    • A política do Zulip é muito mais realista e prática que a do Mitchell
      Ela também orienta como usar IA de forma adequada, então vale a pena consultar