- A OpenAI apoia o projeto de lei do Senado de Illinois SB 3444, que prevê, sob certas condições, a limitação da responsabilidade legal de laboratórios de IA mesmo quando modelos de IA causarem grande perda de vidas ou danos patrimoniais massivos
- O projeto define como "dano crítico (critical harm)" os casos em que um modelo de IA cause a morte ou ferimentos graves em 100 ou mais pessoas, ou mais de US$ 1 bilhão em danos patrimoniais
- Se um laboratório de IA tiver causado esse dano sem intenção ou negligência grave e tiver publicado em seu site um relatório de segurança, proteção e transparência, poderá ficar isento de responsabilidade
- O projeto define "modelo de fronteira (frontier model)" como uma IA cujo custo de treinamento seja de pelo menos US$ 100 milhões, o que pode incluir grandes laboratórios de IA como OpenAI, Google, xAI, Anthropic e Meta
- Essa definição é interpretada como uma tentativa de criar um arcabouço regulatório centrado em sistemas de IA de alto desempenho
- Em comunicado por e-mail, o porta-voz da OpenAI Jamie Radice afirmou: “Essa abordagem ajuda a reduzir o risco de danos graves de sistemas avançados de IA, ao mesmo tempo em que ajuda a levar a tecnologia a empresas e indivíduos”
- Também mencionou que isso ajuda a estabelecer padrões nacionais claros e consistentes, em vez de regulações diferentes em cada estado
- O projeto inclui na definição de "dano crítico" casos em que a IA gere armas químicas, biológicas, radiológicas ou nucleares, ou execute por conta própria atos que seriam considerados crimes se cometidos por humanos
- Mesmo que esses atos resultem em danos em grande escala, se o laboratório de IA não tiver agido de forma intencional e tiver apresentado o relatório, poderá ficar isento de responsabilidade legal
-
Conflito entre regulação federal e projetos estaduais
- Caitlin Niedermeyer, da equipe de Global Affairs da OpenAI, destacou em seu depoimento de apoio ao SB 3444 a necessidade de um arcabouço federal de regulação para IA
- Argumentou que regulações diferentes entre estados podem gerar atritos ineficientes e que é preciso reforçar a harmonia com um sistema federal
- Isso é semelhante à posição predominante no Vale do Silício e está alinhado com a lógica de priorizar a manutenção da competitividade dos EUA em IA
- Niedermeyer declarou que “a implantação segura de modelos de fronteira e a manutenção da liderança inovadora dos Estados Unidos devem ser a estrela-guia (North Star) da regulação”
- Caitlin Niedermeyer, da equipe de Global Affairs da OpenAI, destacou em seu depoimento de apoio ao SB 3444 a necessidade de um arcabouço federal de regulação para IA
-
Possibilidade de aprovação do projeto e críticas
- O diretor de políticas do Secure AI Project, Scott Wisor, avaliou que, considerando a tendência de Illinois à regulação tecnológica, as chances de aprovação do projeto são baixas
- Em uma pesquisa com moradores de Illinois, 90% se opuseram à isenção de responsabilidade para empresas de IA
- Legisladores estaduais estão, na verdade, apresentando projetos para ampliar a responsabilização de desenvolvedores de IA
- Illinois já foi o primeiro estado a aprovar uma lei que restringe o uso de IA em serviços de saúde mental e, em 2008, aprovou a Lei de Privacidade de Informações Biométricas (BIPA)
- O diretor de políticas do Secure AI Project, Scott Wisor, avaliou que, considerando a tendência de Illinois à regulação tecnológica, as chances de aprovação do projeto são baixas
-
Questão ainda não resolvida sobre responsabilidade por danos causados por IA
- Embora o SB 3444 se concentre em danos de grande escala, a discussão sobre danos em nível individual também continua
- Algumas famílias processaram a OpenAI alegando que seus filhos tiraram a própria vida após interações anormais com o ChatGPT
- A legislação federal sobre IA continua sem avanço no Congresso
- O governo Trump anunciou ordens executivas e frameworks, mas a discussão legislativa concreta segue travada
- Na ausência de diretrizes federais, governos estaduais como Califórnia e Nova York aprovaram por conta própria leis que tornam obrigatórios relatórios de segurança e transparência
- Enquanto o boom da IA já dura vários anos, a responsabilidade legal caso modelos de IA provoquem eventos catastróficos continua sendo uma questão em aberto
- Embora o SB 3444 se concentre em danos de grande escala, a discussão sobre danos em nível individual também continua
1 comentários
Comentários do Hacker News
Tentei usar o GPT 5.4 e o Opus 4.6 para gerar como fabricar substâncias neurotóxicas com itens do dia a dia
No começo, o modelo travou na parte de conseguir fósforo (P), mas no fim chegou a indicar listagens no eBay de “fósforo decorativo” e até palavras-código usadas no mercado clandestino real
Recebi orientação sobre medidas de segurança, lista de materiais, formas de ocultação e até o processo químico via busca acadêmica
Claro que isso foi um resultado anômalo, possível por meio de um ataque de esgotamento de contexto (context exhaustion attack), e depois foi reportado à OpenAI e à Anthropic, mas não houve resposta
Quando tentei de novo recentemente, a sessão foi encerrada, então parece ter sido corrigido
Tenho certeza de que isso é o tipo de coisa que tira o sono de gente do contraterrorismo
Antes, havia muitos fóruns sobre “informações que o governo quer esconder”
Mas hoje a parte mais assustadora é que a fricção para executar caiu
Eu já usei ChatGPT e Claude na minha área de especialidade e eles frequentemente produzem conteúdo que parece plausível para leigos, mas está completamente errado
Também tenho curiosidade se alguém já tentou de fato fazer experimentos seguindo instruções de química de LLMs
Na verdade, é assim que ele deveria funcionar por padrão, a menos que se sobrescreva o system prompt
Cita o texto original da Illinois Senate Bill 3444
‘Dano crítico (critical harm)’ significa casos em que um modelo de IA causa a morte de mais de 100 pessoas ou mais de 1 bilhão de dólares em danos materiais
O desenvolvedor fica isento, salvo negligência intencional, se tiver divulgado previamente protocolos de segurança e relatórios de transparência
Mas acho que simplesmente subir um PDF não é suficiente
Ou seja, se um modelo pequeno causar um acidente, ele não recebe proteção
Então matar só 99 pessoas está tudo bem? É uma lógica estranha de “ou vai grande ou vai para casa”
Não basta apenas divulgar documentos; a proteção só existe se a empresa de fato cumprir esses protocolos
O órgão regulador deveria definir um ‘padrão razoável’, e a isenção só deveria valer quando a empresa cumprir esse padrão
Imunidade incondicional e responsabilidade incondicional são igualmente excessivas
No fim, o problema da lei é que o padrão foi definido baixo demais
O caso clássico é o Price–Anderson Act, de 1957, que limita a responsabilidade da indústria nuclear
Mesmo quando os danos passam de 1 trilhão de dólares, como em Fukushima, o governo arca com a maior parte
A discussão sobre imunidade da indústria de IA está no mesmo contexto
Além disso, ao ver o Gemini errar o ano de expiração dessa lei, senti de novo a necessidade de checagem factual na IA
Claro, é uma analogia simplificada, mas fica evidente que se trata de um projeto para escapar de responsabilidade
Parece uma tentativa de escapar de responsabilidade quando um alvo errado é atacado
É quase estranho que “Skynet” nem tenha sido mencionada
Se estão pedindo imunidade, é porque já sabem que é perigoso
Isso me lembra o caso de Iowa
O senado estadual aprovou duas vezes um projeto para impedir ações judiciais contra empresas de pesticidas e herbicidas, desde que sigam os rótulos aprovados pela EPA
Iowa também é o estado dos EUA onde a incidência de câncer cresce mais rapidamente
Isso parece que ainda vai gerar uma grande disputa, como nos processos sobre PFAS (link da matéria)
Criamos sistemas que não entendemos, e agora a próxima etapa é imunidade; é irônico
Mas o que realmente assusta é que esse tipo de reação vem de uma mentalidade estreita demais
Acho que a questão da responsabilidade é simples
O humano que tomou a decisão deve sempre ser responsabilizado
A desculpa de “a IA mandou fazer” não cola
Mas, se quem executou não tinha autoridade, isso já é outro tipo de responsabilidade
No fim, a IA só vai virar um novo bode expiatório
No fim, eles calcularam que fazer lobby no governo é mais barato e mais rápido do que melhorar a segurança do produto
Mais surpreendente ainda é quantos desenvolvedores querem confiar a esses tipos a chave do mundo
Illinois também tem outro projeto ruim que obriga verificação de idade no nível do sistema operacional (HB 5511)
A razão de essas leis ruins passarem é que nós não levantamos a voz
Se você mora lá, deveria mandar um e-mail para seu representante agora mesmo
Apostando em “quando esse post sai da front page?”
O projeto real (link) declara explicitamente ‘morte de mais de 100 pessoas ou danos de 1 bilhão de dólares’
Acho que o título original era, na verdade, mais preciso
Estamos consumindo isso agora mesmo
A OpenAI começou como uma organização sem fins lucrativos para reduzir os riscos dos LLMs, mas agora está seguindo exatamente na direção oposta
Esse movimento não surpreende vindo da OpenAI e do Sam Altman
Empresas externalizarem custos é algo comum
Mas como podemos impedir esse tipo de comportamento?
É apenas mais um caso em que a ganância venceu a moral?
Há exceções como o movimento contra a SOPA/PIPA, mas na maior parte do tempo o incentivo das empresas é muito maior que o interesse individual
No fim, é o mesmo mecanismo de enfraquecimento da democracia
Empresas são, em essência, estruturas para evasão de responsabilidade, então seria preciso limitar empresas em camadas e sociedades de propósito específico (SPV)
E não se deveria votar em políticos e juízes que seguem a Friedman Doctrine
Hoje a sociedade está inclinada em favor dos proprietários do capital
Não seria muito diferente de uma lei dizendo “se você tiver patrimônio líquido acima de 1 bilhão de dólares, pode agredir qualquer pessoa com imunidade”
No fim, será anulada, a menos que os tribunais também estejam corrompidos
Como converter isso em ação social é um desafio da própria civilização
Foi o Partido Democrata que criou o CFPB, e os republicanos o enfraqueceram
É preciso apoiar forças políticas que enfrentem monopólios e manipulação
Especialmente com a nova geração progressista surgindo, é importante escolher os candidatos certos nas primárias
No fim, se só 25% do eleitorado mudar, o mundo pode mudar junto