- Na legislatura do estado de Nova York, foi apresentado um projeto de lei que obriga a anexar avisos a conteúdos jornalísticos gerados por IA e exige revisão humana
- O nome do projeto é
NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act), e seu objetivo é promover a transparência na indústria de notícias e proteger o jornalismo
- As principais disposições incluem divulgação do uso de IA, revisão por editores e criação de salvaguardas para informações confidenciais
- O projeto aponta como problemas a possibilidade de falsidade e plágio em conteúdo gerado por IA e também inclui disposições de proteção trabalhista, como a proibição de demissões de trabalhadores da imprensa ou cortes salariais
- Grandes sindicatos da mídia, como WGA-East, SAG-AFTRA, DGA e NewsGuild of New York, apoiam a proposta, que vem ganhando atenção como uma resposta à erosão da confiança e à ameaça aos empregos com a adoção de IA
Visão geral do NY FAIR News Act
- O NY FAIR News Act, apresentado em conjunto pela senadora estadual Patricia Fahy e pela deputada estadual Nily Rozic, exige que organizações jornalísticas identifiquem claramente conteúdos gerados por IA
- Conteúdos “substancialmente redigidos com o uso de inteligência artificial generativa” devem incluir um aviso (
disclaimer)
- A exigência se aplica não apenas a artigos, mas a áudio, imagens e materiais visuais e a todas as formas de conteúdo jornalístico
- Todo conteúdo gerado por IA deve passar por revisão prévia de um funcionário humano com autoridade de controle editorial
- Mesmo dentro da redação, o uso de IA e a forma como ela é usada devem ser divulgados aos integrantes, como repórteres
Principais regulações do projeto
- Inclui diversas regras centradas no fortalecimento da transparência em IA
- Obrigação de criar salvaguardas para proteger informações confidenciais às quais a IA possa ter acesso (especialmente informações relacionadas a fontes jornalísticas)
- Inclui uma cláusula de exceção de proteção de direitos autorais: ficam de fora os casos em que a autoria humana é reconhecida pela legislação de copyright
- O texto aponta explicitamente o problema de confiabilidade de materiais gerados por IA
- Os legisladores alegam que conteúdos produzidos por IA “podem ser falsos ou enganosos” e apresentam “possibilidade de citação não autorizada e plágio” como justificativas
Reação do setor de mídia e dos sindicatos
- O projeto conta com amplo apoio dos principais sindicatos do setor de mídia
- Participam WGA-East, SAG-AFTRA, DGA e NewsGuild of New York
- A porta-voz da NewsGuild, Jennifer Sheehan, confirmou que o sindicato está discutindo o impacto da adoção de IA e a questão da proteção de empregos
- Em dezembro de 2025, a NewsGuild lançou a campanha
News Not Slop, exigindo salvaguardas para o uso de IA nas redações
- Na cidade de Nova York, o sindicato do Business Insider realizou um protesto contra matérias publicadas com byline de IA
Proteção ao jornalismo e direitos trabalhistas
- O projeto inclui disposições que proíbem demissões, redução de funções e cortes de salários e benefícios decorrentes da adoção de IA
- Trata-se de uma tentativa de transformar em lei cláusulas que, nos últimos anos, vinham sendo incluídas em contratos sindicais de redações específicas
- A senadora Fahy afirmou que “a IA pode ameaçar o jornalismo e a confiança pública” e mencionou que 76% dos americanos demonstraram preocupação com a possibilidade de a IA apropriar-se ou reproduzir conteúdo jornalístico
Contexto e significado
- Nova York é o centro da indústria jornalística dos EUA, e há um movimento para reforçar ao mesmo tempo a confiabilidade do jornalismo e a proteção dos trabalhadores
- O projeto é visto como a primeira tentativa de legislação em nível estadual a abranger transparência em IA, direitos autorais e direitos trabalhistas
1 comentários
Comentários do Hacker News
Surpreende que hoje em dia quase não se fale de notícias sobre legislação relacionada a IA
Só o estado de Nova York já tem várias leis e projetos, como o RAISE (protocolos de segurança para frontier AI, supervisão e relatório de incidentes), o S8420A (obrigação de divulgar personagens gerados por IA em publicidade), o GBL Article 47 (detecção de crise e avisos em chatbots de IA), o S7676B (proteção do direito de imagem de atores contra IA), o NYC LL144 (monitoramento de viés em ferramentas de contratação por IA) e o SAFE for Kids Act, que limita feeds algorítmicos para menores (ainda em tramitação)
Mesmo que um app atenda apenas usuários de Nova York, pelo menos três dessas normas podem se aplicar
O sistema jurídico estadual nos EUA parece um campo minado ainda mais complexo do que a regulação da UE
Mas eu, ao contrário, acho que elas vão ser aplicadas de um jeito que pune em excesso os desenvolvedores honestos
Não só para proteger menores, mas para permitir que o usuário escolha diretamente e ajudar a recuperar a confiança
Porque sistemas não determinísticos não permitem auditoria completa
Em vez disso, pode ser mais realista que sindicatos ou guildas do jornalismo passem a indicar voluntariamente o uso de IA
Na prática, o país está preso a um sistema legal centrado nas grandes empresas, mas ainda assim acredita estar em posição superior
Acho que precisamos de um rótulo de “reportagem original”
A maior parte das notícias é informação retrabalhada e pode ser substituída por IA, mas o papel do repórter que faz apuração direta é insubstituível
Toda matéria deveria indicar suas fontes, e se uma IA inventa links errados isso já é um grande sinal de alerta
É irônico que a grande imprensa receba confiança mesmo com fontes superficiais
Isso veio da influência do antigo projeto Civil
Claro, com exceção dos casos em que é preciso proteger fontes anônimas de jornalistas
Notícias geradas por IA devem necessariamente passar pela revisão de um editor humano
A organização precisa se responsabilizar pelo resultado da IA, e isso não pode terminar em um simples aviso de isenção
É preciso evitar que isso vire um teatro de compliance meramente formal, como acontece com certificações de segurança
Se uma reportagem errada gerada por IA causar dano, o veículo deve ser responsabilizado
A cobrança de responsabilidade tem que começar de cima
No cenário ideal, fingir que algo gerado por IA foi criado por humanos deveria ser ilegal
Quando os avisos são usados demais, as pessoas passam a ignorar o sinal
Só limitando isso a matérias jornalísticas a credibilidade do aviso pode ser preservada
Afinal, câmeras de smartphone e o Photoshop também usam IA
Em cada uma delas a IA pode intervir
Fico preocupado que uma lei dessas acabe levando ao mesmo resultado da Prop 65, com todo conteúdo recebendo um aviso do tipo “foi usada IA”
Uma formulação vaga como “a maior parte envolveu IA” viraria um parque de diversões para advogados
Veja a wiki da Prop 65
Até edição ou revisão poderia ser considerada “autoria substancial”
Segundo esta matéria do Washington Post, 78% dos fabricantes reformularam seus ingredientes
Iniciei no W3C um grupo de trabalho para padronização da divulgação de conteúdo com IA
Estamos criando um padrão para que sites possam divulgar voluntariamente o grau de intervenção de IA
Veja a página do W3C e o repositório no GitHub
Nova York também quer que impressoras 3D detectem quando estiverem imprimindo peças de armas
Mas regulações assim acabam virando sistemas que só os usuários de boa-fé seguem
Não existe forma perfeita de detectar se algo foi gerado por IA, e educação e conscientização são soluções mais realistas
No fim, parece que todo site vai acabar colocando algo como “este site pode conter conteúdo de IA segundo os critérios do estado de Nova York”
Se veículos de imprensa colocarem aviso em todo conteúdo, o aviso perde seu valor
E, se o regulador proibir isso, os veículos podem acabar usando IA em tudo
Quero chamar isso de efeito Sesame
Não confio em veículos que colocam um aviso genérico em todas as matérias
Toda essa discussão, no fim, trata do problema de uma cultura que confia cegamente em resultados de IA
Avisos são só uma medida temporária; o que precisamos é de responsabilidade na própria estrutura de tomada de decisão
Estamos experimentando um sistema baseado em consenso em que vários agentes independentes de IA votam e validam o resultado
Dá para testar no CLI open source consensus.tools
Numa realidade inundada por conteúdo de baixa qualidade, sistemas de consenso são caros demais para adoção ampla
Por isso, a exigência mínima de avisos obrigatórios ainda continua necessária