2 pontos por GN⁺ 2026-02-07 | 1 comentários | Compartilhar no WhatsApp
  • Na legislatura do estado de Nova York, foi apresentado um projeto de lei que obriga a anexar avisos a conteúdos jornalísticos gerados por IA e exige revisão humana
  • O nome do projeto é NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act), e seu objetivo é promover a transparência na indústria de notícias e proteger o jornalismo
  • As principais disposições incluem divulgação do uso de IA, revisão por editores e criação de salvaguardas para informações confidenciais
  • O projeto aponta como problemas a possibilidade de falsidade e plágio em conteúdo gerado por IA e também inclui disposições de proteção trabalhista, como a proibição de demissões de trabalhadores da imprensa ou cortes salariais
  • Grandes sindicatos da mídia, como WGA-East, SAG-AFTRA, DGA e NewsGuild of New York, apoiam a proposta, que vem ganhando atenção como uma resposta à erosão da confiança e à ameaça aos empregos com a adoção de IA

Visão geral do NY FAIR News Act

  • O NY FAIR News Act, apresentado em conjunto pela senadora estadual Patricia Fahy e pela deputada estadual Nily Rozic, exige que organizações jornalísticas identifiquem claramente conteúdos gerados por IA
    • Conteúdos “substancialmente redigidos com o uso de inteligência artificial generativa” devem incluir um aviso (disclaimer)
    • A exigência se aplica não apenas a artigos, mas a áudio, imagens e materiais visuais e a todas as formas de conteúdo jornalístico
  • Todo conteúdo gerado por IA deve passar por revisão prévia de um funcionário humano com autoridade de controle editorial
  • Mesmo dentro da redação, o uso de IA e a forma como ela é usada devem ser divulgados aos integrantes, como repórteres

Principais regulações do projeto

  • Inclui diversas regras centradas no fortalecimento da transparência em IA
    • Obrigação de criar salvaguardas para proteger informações confidenciais às quais a IA possa ter acesso (especialmente informações relacionadas a fontes jornalísticas)
    • Inclui uma cláusula de exceção de proteção de direitos autorais: ficam de fora os casos em que a autoria humana é reconhecida pela legislação de copyright
  • O texto aponta explicitamente o problema de confiabilidade de materiais gerados por IA
    • Os legisladores alegam que conteúdos produzidos por IA “podem ser falsos ou enganosos” e apresentam “possibilidade de citação não autorizada e plágio” como justificativas

Reação do setor de mídia e dos sindicatos

  • O projeto conta com amplo apoio dos principais sindicatos do setor de mídia
    • Participam WGA-East, SAG-AFTRA, DGA e NewsGuild of New York
    • A porta-voz da NewsGuild, Jennifer Sheehan, confirmou que o sindicato está discutindo o impacto da adoção de IA e a questão da proteção de empregos
  • Em dezembro de 2025, a NewsGuild lançou a campanha News Not Slop, exigindo salvaguardas para o uso de IA nas redações
    • Na cidade de Nova York, o sindicato do Business Insider realizou um protesto contra matérias publicadas com byline de IA

Proteção ao jornalismo e direitos trabalhistas

  • O projeto inclui disposições que proíbem demissões, redução de funções e cortes de salários e benefícios decorrentes da adoção de IA
    • Trata-se de uma tentativa de transformar em lei cláusulas que, nos últimos anos, vinham sendo incluídas em contratos sindicais de redações específicas
  • A senadora Fahy afirmou que “a IA pode ameaçar o jornalismo e a confiança pública” e mencionou que 76% dos americanos demonstraram preocupação com a possibilidade de a IA apropriar-se ou reproduzir conteúdo jornalístico

Contexto e significado

  • Nova York é o centro da indústria jornalística dos EUA, e há um movimento para reforçar ao mesmo tempo a confiabilidade do jornalismo e a proteção dos trabalhadores
  • O projeto é visto como a primeira tentativa de legislação em nível estadual a abranger transparência em IA, direitos autorais e direitos trabalhistas

1 comentários

 
GN⁺ 2026-02-07
Comentários do Hacker News
  • Surpreende que hoje em dia quase não se fale de notícias sobre legislação relacionada a IA
    Só o estado de Nova York já tem várias leis e projetos, como o RAISE (protocolos de segurança para frontier AI, supervisão e relatório de incidentes), o S8420A (obrigação de divulgar personagens gerados por IA em publicidade), o GBL Article 47 (detecção de crise e avisos em chatbots de IA), o S7676B (proteção do direito de imagem de atores contra IA), o NYC LL144 (monitoramento de viés em ferramentas de contratação por IA) e o SAFE for Kids Act, que limita feeds algorítmicos para menores (ainda em tramitação)
    Mesmo que um app atenda apenas usuários de Nova York, pelo menos três dessas normas podem se aplicar
    O sistema jurídico estadual nos EUA parece um campo minado ainda mais complexo do que a regulação da UE

    • Muita gente acha que essas leis não serão realmente aplicadas
      Mas eu, ao contrário, acho que elas vão ser aplicadas de um jeito que pune em excesso os desenvolvedores honestos
    • Seria bom se uma lei como o SAFE for Kids Act fosse ampliada para exigir de todos os serviços um botão para desligar o feed algorítmico
      Não só para proteger menores, mas para permitir que o usuário escolha diretamente e ajudar a recuperar a confiança
    • No fim, acho bem provável que o uso de IA em contratação acabe sendo totalmente proibido
      Porque sistemas não determinísticos não permitem auditoria completa
    • Exigir avisos em publicações é um desafio jurídico ainda maior por causa da liberdade de expressão
      Em vez disso, pode ser mais realista que sindicatos ou guildas do jornalismo passem a indicar voluntariamente o uso de IA
    • Os EUA zombarem da regulação da UE é uma forma de autojustificação
      Na prática, o país está preso a um sistema legal centrado nas grandes empresas, mas ainda assim acredita estar em posição superior
  • Acho que precisamos de um rótulo de “reportagem original”
    A maior parte das notícias é informação retrabalhada e pode ser substituída por IA, mas o papel do repórter que faz apuração direta é insubstituível
    Toda matéria deveria indicar suas fontes, e se uma IA inventa links errados isso já é um grande sinal de alerta

    • Meu site Forty.news cobre notícias de 40 anos atrás e ainda assim ouço com frequência que “faltam fontes”
      É irônico que a grande imprensa receba confiança mesmo com fontes superficiais
    • O Colorado Sun coloca um rótulo do tipo de reportagem em cada matéria
      Isso veio da influência do antigo projeto Civil
    • Assim como queremos saber a origem dos alimentos, a transparência da origem da informação também é importante
      Claro, com exceção dos casos em que é preciso proteger fontes anônimas de jornalistas
    • Já existem rótulos como “exclusive!”, mas isso não é uma indicação real de origem
  • Notícias geradas por IA devem necessariamente passar pela revisão de um editor humano
    A organização precisa se responsabilizar pelo resultado da IA, e isso não pode terminar em um simples aviso de isenção
    É preciso evitar que isso vire um teatro de compliance meramente formal, como acontece com certificações de segurança
    Se uma reportagem errada gerada por IA causar dano, o veículo deve ser responsabilizado

    • Mas nem o próprio presidente assume responsabilidade quando compartilha vídeos manipulados por IA
      A cobrança de responsabilidade tem que começar de cima
  • No cenário ideal, fingir que algo gerado por IA foi criado por humanos deveria ser ilegal

    • Mas, se colocarem aviso em tudo, há o risco de isso virar algo sem sentido, como a Prop 65
      Quando os avisos são usados demais, as pessoas passam a ignorar o sinal
      Só limitando isso a matérias jornalísticas a credibilidade do aviso pode ser preservada
    • A definição de “gerado por IA” é ambígua
      Afinal, câmeras de smartphone e o Photoshop também usam IA
    • Também é difícil distinguir entre trabalho humano descuidado e conteúdo gerado por IA
    • Publicar não é só escrever, mas também pesquisar, editar, revisar e passar por várias outras etapas
      Em cada uma delas a IA pode intervir
    • No fim, a questão central é a fronteira entre assistido por IA vs. gerado por IA
  • Fico preocupado que uma lei dessas acabe levando ao mesmo resultado da Prop 65, com todo conteúdo recebendo um aviso do tipo “foi usada IA”
    Uma formulação vaga como “a maior parte envolveu IA” viraria um parque de diversões para advogados
    Veja a wiki da Prop 65

    • Ainda assim, isso poderia permitir filtrar conteúdo não feito com IA
    • Mas, como a maioria dos avisos obrigatórios, provavelmente se tornaria formal e sem significado
    • Ou então “No AI!” poderia virar uma opção premium para os mais ricos
      Até edição ou revisão poderia ser considerada “autoria substancial”
    • Por outro lado, há estudos indicando que a Prop 65 de fato reduziu o uso de substâncias químicas por empresas
      Segundo esta matéria do Washington Post, 78% dos fabricantes reformularam seus ingredientes
  • Iniciei no W3C um grupo de trabalho para padronização da divulgação de conteúdo com IA
    Estamos criando um padrão para que sites possam divulgar voluntariamente o grau de intervenção de IA
    Veja a página do W3C e o repositório no GitHub

    • Houve uma pergunta sobre como participar
  • Nova York também quer que impressoras 3D detectem quando estiverem imprimindo peças de armas
    Mas regulações assim acabam virando sistemas que só os usuários de boa-fé seguem
    Não existe forma perfeita de detectar se algo foi gerado por IA, e educação e conscientização são soluções mais realistas

  • No fim, parece que todo site vai acabar colocando algo como “este site pode conter conteúdo de IA segundo os critérios do estado de Nova York”

    • Aí surgiu até a piada de que talvez fosse melhor simplesmente fazer isso mesmo
  • Se veículos de imprensa colocarem aviso em todo conteúdo, o aviso perde seu valor
    E, se o regulador proibir isso, os veículos podem acabar usando IA em tudo
    Quero chamar isso de efeito Sesame

    • Eu, como jornalista de dados, uso IA em parte do trabalho, mas sempre divulgo isso na seção de metodologia
      Não confio em veículos que colocam um aviso genérico em todas as matérias
    • Por outro lado, veículos que realmente validam o trabalho manualmente podem esperar aumento de assinantes
    • Também dá para se diferenciar com algo como “todo o nosso conteúdo foi verificado por humanos”
  • Toda essa discussão, no fim, trata do problema de uma cultura que confia cegamente em resultados de IA
    Avisos são só uma medida temporária; o que precisamos é de responsabilidade na própria estrutura de tomada de decisão
    Estamos experimentando um sistema baseado em consenso em que vários agentes independentes de IA votam e validam o resultado
    Dá para testar no CLI open source consensus.tools

    • Mas a maioria dos produtores de conteúdo prioriza velocidade e redução de custos, não precisão
      Numa realidade inundada por conteúdo de baixa qualidade, sistemas de consenso são caros demais para adoção ampla
      Por isso, a exigência mínima de avisos obrigatórios ainda continua necessária