1 pontos por GN⁺ 19 일 전 | 1 comentários | Compartilhar no WhatsApp
  • A OpenAI apoia o projeto de lei do Senado de Illinois SB 3444, que prevê, sob certas condições, a limitação da responsabilidade legal de laboratórios de IA mesmo quando modelos de IA causarem grande perda de vidas ou danos patrimoniais massivos
    • O projeto define como "dano crítico (critical harm)" os casos em que um modelo de IA cause a morte ou ferimentos graves em 100 ou mais pessoas, ou mais de US$ 1 bilhão em danos patrimoniais
    • Se um laboratório de IA tiver causado esse dano sem intenção ou negligência grave e tiver publicado em seu site um relatório de segurança, proteção e transparência, poderá ficar isento de responsabilidade
    • O projeto define "modelo de fronteira (frontier model)" como uma IA cujo custo de treinamento seja de pelo menos US$ 100 milhões, o que pode incluir grandes laboratórios de IA como OpenAI, Google, xAI, Anthropic e Meta
    • Essa definição é interpretada como uma tentativa de criar um arcabouço regulatório centrado em sistemas de IA de alto desempenho
  • Em comunicado por e-mail, o porta-voz da OpenAI Jamie Radice afirmou: “Essa abordagem ajuda a reduzir o risco de danos graves de sistemas avançados de IA, ao mesmo tempo em que ajuda a levar a tecnologia a empresas e indivíduos”
    • Também mencionou que isso ajuda a estabelecer padrões nacionais claros e consistentes, em vez de regulações diferentes em cada estado
    • O projeto inclui na definição de "dano crítico" casos em que a IA gere armas químicas, biológicas, radiológicas ou nucleares, ou execute por conta própria atos que seriam considerados crimes se cometidos por humanos
    • Mesmo que esses atos resultem em danos em grande escala, se o laboratório de IA não tiver agido de forma intencional e tiver apresentado o relatório, poderá ficar isento de responsabilidade legal
  • Conflito entre regulação federal e projetos estaduais

    • Caitlin Niedermeyer, da equipe de Global Affairs da OpenAI, destacou em seu depoimento de apoio ao SB 3444 a necessidade de um arcabouço federal de regulação para IA
      • Argumentou que regulações diferentes entre estados podem gerar atritos ineficientes e que é preciso reforçar a harmonia com um sistema federal
      • Isso é semelhante à posição predominante no Vale do Silício e está alinhado com a lógica de priorizar a manutenção da competitividade dos EUA em IA
      • Niedermeyer declarou que “a implantação segura de modelos de fronteira e a manutenção da liderança inovadora dos Estados Unidos devem ser a estrela-guia (North Star) da regulação”
  • Possibilidade de aprovação do projeto e críticas

    • O diretor de políticas do Secure AI Project, Scott Wisor, avaliou que, considerando a tendência de Illinois à regulação tecnológica, as chances de aprovação do projeto são baixas
      • Em uma pesquisa com moradores de Illinois, 90% se opuseram à isenção de responsabilidade para empresas de IA
      • Legisladores estaduais estão, na verdade, apresentando projetos para ampliar a responsabilização de desenvolvedores de IA
      • Illinois já foi o primeiro estado a aprovar uma lei que restringe o uso de IA em serviços de saúde mental e, em 2008, aprovou a Lei de Privacidade de Informações Biométricas (BIPA)
  • Questão ainda não resolvida sobre responsabilidade por danos causados por IA

    • Embora o SB 3444 se concentre em danos de grande escala, a discussão sobre danos em nível individual também continua
      • Algumas famílias processaram a OpenAI alegando que seus filhos tiraram a própria vida após interações anormais com o ChatGPT
    • A legislação federal sobre IA continua sem avanço no Congresso
      • O governo Trump anunciou ordens executivas e frameworks, mas a discussão legislativa concreta segue travada
      • Na ausência de diretrizes federais, governos estaduais como Califórnia e Nova York aprovaram por conta própria leis que tornam obrigatórios relatórios de segurança e transparência
    • Enquanto o boom da IA já dura vários anos, a responsabilidade legal caso modelos de IA provoquem eventos catastróficos continua sendo uma questão em aberto

1 comentários

 
GN⁺ 19 일 전
Comentários do Hacker News
  • Tentei usar o GPT 5.4 e o Opus 4.6 para gerar como fabricar substâncias neurotóxicas com itens do dia a dia
    No começo, o modelo travou na parte de conseguir fósforo (P), mas no fim chegou a indicar listagens no eBay de “fósforo decorativo” e até palavras-código usadas no mercado clandestino real
    Recebi orientação sobre medidas de segurança, lista de materiais, formas de ocultação e até o processo químico via busca acadêmica
    Claro que isso foi um resultado anômalo, possível por meio de um ataque de esgotamento de contexto (context exhaustion attack), e depois foi reportado à OpenAI e à Anthropic, mas não houve resposta
    Quando tentei de novo recentemente, a sessão foi encerrada, então parece ter sido corrigido
    Tenho certeza de que isso é o tipo de coisa que tira o sono de gente do contraterrorismo

    • Essas informações já podiam ser encontradas facilmente na internet há 20 ou 30 anos
      Antes, havia muitos fóruns sobre “informações que o governo quer esconder”
      Mas hoje a parte mais assustadora é que a fricção para executar caiu
    • A expressão “agentes de contraterrorismo não conseguem dormir” parece exagerada demais, mas hoje vou simplesmente aceitar essa energia positiva
    • Fico curioso se há alguém com formação em bioquímica
      Eu já usei ChatGPT e Claude na minha área de especialidade e eles frequentemente produzem conteúdo que parece plausível para leigos, mas está completamente errado
      Também tenho curiosidade se alguém já tentou de fato fazer experimentos seguindo instruções de química de LLMs
    • Essas informações já eram plenamente acessíveis só com busca no Google antes da IA
    • Não concordo com a frase “o modelo não deveria funcionar assim”
      Na verdade, é assim que ele deveria funcionar por padrão, a menos que se sobrescreva o system prompt
  • Cita o texto original da Illinois Senate Bill 3444
    ‘Dano crítico (critical harm)’ significa casos em que um modelo de IA causa a morte de mais de 100 pessoas ou mais de 1 bilhão de dólares em danos materiais
    O desenvolvedor fica isento, salvo negligência intencional, se tiver divulgado previamente protocolos de segurança e relatórios de transparência
    Mas acho que simplesmente subir um PDF não é suficiente

    • O ponto interessante é que essa lei se aplica apenas a ‘modelos de fronteira’
      Ou seja, se um modelo pequeno causar um acidente, ele não recebe proteção
      Então matar só 99 pessoas está tudo bem? É uma lógica estranha de “ou vai grande ou vai para casa”
    • O ponto central está na seção 15
      Não basta apenas divulgar documentos; a proteção só existe se a empresa de fato cumprir esses protocolos
      O órgão regulador deveria definir um ‘padrão razoável’, e a isenção só deveria valer quando a empresa cumprir esse padrão
      Imunidade incondicional e responsabilidade incondicional são igualmente excessivas
      No fim, o problema da lei é que o padrão foi definido baixo demais
    • É comum empresas transferirem responsabilidade para o público
      O caso clássico é o Price–Anderson Act, de 1957, que limita a responsabilidade da indústria nuclear
      Mesmo quando os danos passam de 1 trilhão de dólares, como em Fukushima, o governo arca com a maior parte
      A discussão sobre imunidade da indústria de IA está no mesmo contexto
      Além disso, ao ver o Gemini errar o ano de expiração dessa lei, senti de novo a necessidade de checagem factual na IA
    • Esta é a versão em IA da lógica de “armas não matam pessoas
      Claro, é uma analogia simplificada, mas fica evidente que se trata de um projeto para escapar de responsabilidade
    • Essa lei também toca na controvérsia em torno do desenvolvimento de armas autônomas
      Parece uma tentativa de escapar de responsabilidade quando um alvo errado é atacado
      É quase estranho que “Skynet” nem tenha sido mencionada
      Se estão pedindo imunidade, é porque já sabem que é perigoso
  • Isso me lembra o caso de Iowa
    O senado estadual aprovou duas vezes um projeto para impedir ações judiciais contra empresas de pesticidas e herbicidas, desde que sigam os rótulos aprovados pela EPA
    Iowa também é o estado dos EUA onde a incidência de câncer cresce mais rapidamente

    • Se o produto foi aprovado pelo governo, a empresa ainda deveria ser responsabilizada se depois se descobrir que faz mal?
      Isso parece que ainda vai gerar uma grande disputa, como nos processos sobre PFAS (link da matéria)
    • No fim, isso parece ser um conflito entre interesses da indústria local e saúde pública
  • Criamos sistemas que não entendemos, e agora a próxima etapa é imunidade; é irônico

    • Sim, o objetivo é escapar da responsabilidade
      Mas o que realmente assusta é que esse tipo de reação vem de uma mentalidade estreita demais
  • Acho que a questão da responsabilidade é simples
    O humano que tomou a decisão deve sempre ser responsabilizado
    A desculpa de “a IA mandou fazer” não cola
    Mas, se quem executou não tinha autoridade, isso já é outro tipo de responsabilidade
    No fim, a IA só vai virar um novo bode expiatório

    • Mas nem sempre é claro “quem é o responsável”
  • No fim, eles calcularam que fazer lobby no governo é mais barato e mais rápido do que melhorar a segurança do produto
    Mais surpreendente ainda é quantos desenvolvedores querem confiar a esses tipos a chave do mundo

    • Na verdade, esse tipo de abordagem é a estratégia padrão das empresas desde meados do século XX, e tem funcionado muito bem
    • Mas como exatamente alguém vai tornar “seguro” um produto não determinístico (nondeterministic)?
  • Illinois também tem outro projeto ruim que obriga verificação de idade no nível do sistema operacional (HB 5511)
    A razão de essas leis ruins passarem é que nós não levantamos a voz
    Se você mora lá, deveria mandar um e-mail para seu representante agora mesmo

  • Apostando em “quando esse post sai da front page?”

    • O título foi mudado para “OpenAI backs Illinois bill that would limit when AI labs can be held liable”
      O projeto real (link) declara explicitamente ‘morte de mais de 100 pessoas ou danos de 1 bilhão de dólares’
      Acho que o título original era, na verdade, mais preciso
    • Atualização: saiu da front page em algo entre 1 e 4 horas
    • Mas isso tem efeito de marketing, então acho que não vai ser apagado
      Estamos consumindo isso agora mesmo
    • Meu palpite é 3 meses — se não sair, então ganhei a aposta para o resto da vida
  • A OpenAI começou como uma organização sem fins lucrativos para reduzir os riscos dos LLMs, mas agora está seguindo exatamente na direção oposta

    • Isso foi antes de descobrirem o potencial do dinheiro
    • Empresas com “Open” no nome em geral são fechadas
    • No fim, todo mundo tem seu preço
    • Eles também já esqueceram os ideais do começo
    • Talvez isso tudo já fosse mentira desde o início
  • Esse movimento não surpreende vindo da OpenAI e do Sam Altman
    Empresas externalizarem custos é algo comum
    Mas como podemos impedir esse tipo de comportamento?
    É apenas mais um caso em que a ganância venceu a moral?

    • Em termos sociais, é difícil impedir
      Há exceções como o movimento contra a SOPA/PIPA, mas na maior parte do tempo o incentivo das empresas é muito maior que o interesse individual
      No fim, é o mesmo mecanismo de enfraquecimento da democracia
    • Mudar o próprio conceito de pessoa jurídica pode ser a solução
      Empresas são, em essência, estruturas para evasão de responsabilidade, então seria preciso limitar empresas em camadas e sociedades de propósito específico (SPV)
      E não se deveria votar em políticos e juízes que seguem a Friedman Doctrine
      Hoje a sociedade está inclinada em favor dos proprietários do capital
    • Se essa lei passar, há grande chance de ser inconstitucional
      Não seria muito diferente de uma lei dizendo “se você tiver patrimônio líquido acima de 1 bilhão de dólares, pode agredir qualquer pessoa com imunidade”
      No fim, será anulada, a menos que os tribunais também estejam corrompidos
    • O que o indivíduo pode fazer é limitado
      Como converter isso em ação social é um desafio da própria civilização
    • Muita gente vai ignorar isso, mas eu diria: vote nos democratas
      Foi o Partido Democrata que criou o CFPB, e os republicanos o enfraqueceram
      É preciso apoiar forças políticas que enfrentem monopólios e manipulação
      Especialmente com a nova geração progressista surgindo, é importante escolher os candidatos certos nas primárias
      No fim, se só 25% do eleitorado mudar, o mundo pode mudar junto