14 pontos por GN⁺ 2026-02-26 | 2 comentários | Compartilhar no WhatsApp
  • A empresa de pesquisa em inteligência artificial Anthropic revogou compromissos importantes de sua política central de segurança, a Responsible Scaling Policy (RSP)
  • Antes, a empresa prometia interromper o treinamento de modelos de IA caso as medidas de segurança não estivessem suficientemente garantidas, mas essa cláusula foi removida na nova política
  • A nova RSP promete mais transparência e esforços de segurança ao menos no nível dos concorrentes, além de afirmar que pode “adiar” o desenvolvimento se o risco for grave
  • A empresa explicou que a mudança não se deve à pressão do mercado, mas sim a uma resposta à realidade política e científica
  • Especialistas avaliam a medida como um sinal de falta de preparação social para riscos catastróficos da IA

Contexto da mudança na RSP (Responsible Scaling Policy)

  • Em 2023, a Anthropic anunciou o compromisso de não treinar sistemas de IA se as medidas de segurança não estivessem suficientemente comprovadas
    • Essa era uma política central que reforçava a imagem da empresa de priorizar a segurança acima da competição de mercado
  • Recentemente, a empresa reformulou a RSP por completo e retirou a promessa de não lançar modelos sem garantias prévias de segurança
  • Jared Kaplan (Chief Science Officer) afirmou que “promessas unilaterais não são realistas porque o avanço da IA é rápido demais”

Principais pontos da nova política

  • A nova RSP inclui maior transparência sobre os riscos de segurança da IA
    • Ela prevê divulgar mais resultados de testes de segurança dos modelos da Anthropic e manter ou superar medidas de segurança no nível dos concorrentes
  • A empresa poderá adiar o desenvolvimento se estiver na liderança da corrida da IA e julgar que o risco catastrófico é elevado
  • No entanto, desaparece a linha de corte clara que antes proibia o treinamento de modelos acima de determinado nível

Contexto industrial da mudança de política

  • A Anthropic vem obtendo resultados comerciais com o sucesso do modelo Claude e do Claude Code
    • Em fevereiro de 2026, reportou captação de US$ 30 bilhões, valuation de cerca de US$ 380 bilhões e crescimento de 10x na receita anual
  • O modelo de negócios focado em B2B da empresa é visto como mais confiável do que a estratégia voltada ao consumidor da OpenAI
  • Kaplan enfatizou que a mudança não decorre de pressão de mercado, mas de um ajuste pragmático às mudanças no ambiente político e científico

Limites regulatórios e científicos

  • Quando introduziu a RSP, a Anthropic esperava que outras empresas adotassem medidas semelhantes, mas isso não aconteceu
  • Seguem a ausência de legislação federal de regulação de IA nos EUA, a tendência de desregulamentação do governo Trump e o fracasso da cooperação internacional
  • A complexidade da ciência de avaliação de IA também é apontada como problema
    • Em 2025, a Anthropic anunciou que não podia descartar a possibilidade de uso indevido de seus modelos para bioterrorismo, mas faltavam bases científicas para comprovar isso

Discussões internas e processo de decisão

  • Ao longo de cerca de um ano, a diretoria discutiu como reformular a RSP para o novo ambiente
    • O ponto central era o princípio fundador de que para pesquisar segurança em IA é preciso desenvolver diretamente modelos de fronteira
  • Segundo Kaplan, o CEO Dario Amodei concluiu que “se os concorrentes continuarem desenvolvendo, e apenas a Anthropic parar, isso pode ser ainda mais perigoso”
  • O prefácio da nova RSP afirma que “se o desenvolvedor com as proteções mais fracas ditar o ritmo, os desenvolvedores responsáveis perderão a capacidade de fazer pesquisa em segurança”

Avaliações externas e preocupações

  • Chris Painter (diretor de políticas da METR) avaliou que a mudança é compreensível, mas revela a falta de preparação social para riscos catastróficos da IA
    • Ele afirmou que a Anthropic entrou em um modo de resposta emergencial (triagem) porque “a avaliação de riscos e os métodos de mitigação não acompanham a velocidade do avanço tecnológico”
  • Painter avaliou positivamente a divulgação transparente de riscos e do roadmap de segurança na nova política, mas
    • alertou que, com o desaparecimento do limiar binário de interrupção (binary threshold) da RSP anterior, pode surgir um efeito de aquecimento gradual do sapo à medida que o risco aumenta lentamente

Planos futuros e compromissos de divulgação

  • A Anthropic afirma que a nova RSP mantém as principais vantagens da política anterior
    • No passado, as restrições ao lançamento de modelos funcionavam como incentivo ao desenvolvimento de medidas de mitigação de segurança
    • Para manter esse incentivo na nova política, a empresa pretende divulgar regularmente os Frontier Safety Roadmaps
  • Além disso, publicará Risk Reports a cada 3 a 6 meses, que
    • incluirão avaliações sobre capacidades dos modelos, cenários de ameaça, medidas de mitigação de risco e nível geral de risco
  • Kaplan destacou que “se os concorrentes responderem com transparência aos riscos catastróficos, a Anthropic também manterá padrões de segurança equivalentes ou superiores

2 comentários

 
tsboard 2026-02-26

Por mais que a Anthropic insista, no fim das contas, se o Departamento de Defesa dos EUA mandar, ela vai ter que obedecer. No final, talvez esse já fosse o desfecho inevitável, não é?

 
GN⁺ 2026-02-26
Comentários do Hacker News
  • Ver a Anthropic dizer que retirou a promessa de interromper o treinamento de IA porque “os concorrentes estão avançando” faz parecer que, no fim, era tudo por dinheiro
    Soa como uma lógica do tipo “se todo mundo está chutando cachorros, então nós também temos que chutar”.
    As pessoas acreditavam que a Anthropic era uma “empresa boazinha”, mas no fim ela também é só mais uma entidade correndo atrás de lucro

    • A Anthropic não pode representar a racionalidade do mercado. Esse papel deve caber à regulação e à fiscalização do governo
      Mas, na realidade, a maioria das empresas de IA está sob um “governo de papel” apenas
    • Na verdade, “o que importa é vencer” é uma realidade comum em quase todos os setores
      Não é um problema exclusivo das empresas de IA, mas isso também não o torna justificável
    • Se no fim o dinheiro é tudo, decidi votar com a carteira e cancelei minha assinatura do Max
    • Quando a concorrência é deixada solta sem regulação, toda empresa bem-sucedida acaba causando fraudes e danos
      Por isso regulações de segurança, ambientais e anticorrupção são indispensáveis
  • Parece o ciclo típico de uma startup de IA
    “Vamos construir um fosso para salvar a humanidade” → “Vamos regular os concorrentes open source” → “Segurança atrapalha o resultado do Q3”

    • No fim, isso termina numa declaração do tipo “o orçamento do Pentágono importa mais do que segurança”
    • Depois de se tornarem dominantes no mercado, vão tentar induzir regulação estatal por meio de ONGs que elas mesmas financiam
    • O mais surpreendente é que essa mudança aconteceu rápido demais
    • Não é só na IA; outras empresas que levantam a bandeira da palavra “open” também são parecidas
      Na prática são fechadas, mas fazem gaslighting ao dizer que são “abertas”
    • Há também uma crítica em tom de piada de que políticos adoram regulação, especialmente quando ela vem acompanhada de vinho e bife
  • Trabalhei na Anthropic no passado, e pessoas como Jared Kaplan realmente se preocupavam em equilibrar pesquisa em segurança com tecnologia de fronteira
    Mas essa decisão é decepcionante. Eu acreditava que a ‘Responsible Scaling Policy’ era um compromisso real que seria mantido mesmo em situações como esta
    Essa promessa fazia a Anthropic parecer “o laboratório menos perigoso”, mas agora esse sinal enfraqueceu
    Daqui para frente, temo que manter o cargo passe a vir antes dos princípios

    • Dizer “espero que ajam de acordo com seus valores” pode ser uma expectativa ingênua demais
      Ainda assim, se algum valor restar, acho melhor exercer influência, mesmo que seja entre laboratórios completamente sem valores
    • Se você não abre mão de RSUs (remuneração em ações), também não pode esperar isso da diretoria
      A responsabilidade moral precisa ser compartilhada por todos nós
    • A promessa não tem força legal, mas tem valor como sinal para o mercado
      O fato de terem retirado esse sinal por conta própria significa que agora estão se movendo em direção a outro mercado
    • Fiz entrevista na Anthropic no ano passado, e tudo pareceu um teatro ético
      Pediam aos candidatos que escrevessem uma redação sobre segurança em IA, e todos encenavam a peça de que estavam “salvando o mundo”
      No fim, agora que o dinheiro entrou em jogo, ninguém abre a boca
    • Esses princípios, no fim, só podem ser mantidos no âmbito do governo
      Porque empresas, estruturalmente, não conseguem escapar do instinto de maximização do lucro
  • Essa decisão lembra o momento em que a Mozilla aceitou DRM
    Não é perfeito, mas mesmo assim a Anthropic ao menos está tentando ter um mínimo de responsabilidade
    Comparada à OpenAI, ainda parece haver algum espaço para confiança

  • O título da matéria está exagerado. Esta controvérsia não é sobre negociações com o Pentágono, e sim sobre a Responsible Scaling Policy 3.0 divulgada pela Anthropic

    • Claro, não dá para afirmar que os dois temas sejam totalmente independentes
      Pode até ser uma medida preventiva
    • Na verdade, considero essa mudança de política uma alteração mais importante do que a questão do Pentágono
  • Houve pressão do governo, mas a matéria não menciona isso em nenhum momento

    • Segundo reportagens relacionadas, foi confirmada uma reunião entre Hegseth e o CEO da Anthropic, Dario Amodei
    • Por isso, há quem ache que a matéria conseguiu um furo exclusivo
    • Alguns veem isso como fabricação de consentimento
    • Criticam o fato de a matéria nem sequer mencionar o nome de Hegseth
  • Um texto que começa com “No início, quando lançaram o modelo sem validação de segurança, ninguém disse nada…” soa como uma fábula de advertência
    No fim, ninguém se preparou, e quando o problema explodiu já era tarde demais

    • Esse descaso coletivo é um problema crônico da sociedade humana
    • Houve avisos suficientes, mas as pessoas estavam presas à ganância e ao pensamento de curto prazo
    • Reescrevendo no estilo HN, no fim todos nós fomos cúmplices daquele sistema
    • Também houve quem dissesse que isso soa um pouco como a introdução de uma narrativa à la O Exterminador do Futuro
    • Mas, realisticamente, o cenário de uma IA sair de controle ainda está distante
      O verdadeiro problema está mais no campo da política e da cultura do que na tecnologia
  • Retirar a promessa de segurança justamente agora é algo significativo
    Empresas assim seguem códigos éticos até que os lucros sejam ameaçados, e então os descartam imediatamente
    No fim, o objetivo é a desvalorização do trabalho de colarinho branco
    Será que vão conduzir essa transição de forma ética, ou apenas transferir riqueza para os acionistas?

    • Este timing pode ser o sinal de partida de pressão do governo
    • Mas, se a classe média desmoronar, a própria base de consumidores também desaparece
      É uma cobra comendo o próprio rabo
    • Slogans como “Don’t be evil” no fim são só uma embalagem para o lucro
      A essência de uma empresa é buscar lucro, e isso em si não é ruim, mas esses gestos morais soam hipócritas
  • O “Don’t be evil” do Google durou 15 anos, mas a Responsible Scaling Policy da Anthropic sumiu em apenas dois anos e meio
    A meia-vida do idealismo em IA está ficando cada vez mais curta

  • É uma pena ver a mudança na Anthropic, mas, na prática, ela também não pode ficar para trás demais na competição se quiser manter a segurança
    Agora é um momento que exige pragmatismo. A Anthropic pode até “ficar má” depois, mas por enquanto ainda é o lado mais seguro

    • Também houve quem perguntasse por que confiar tanto assim na Anthropic
      O fato de o CEO ter recusado o uso de IA para fins de guerra é visto de forma positiva
    • Mas essa mudança também pode já ser um sinal de que ela está ficando má
      É preciso ficar alerta antes que seja tarde demais
    • Houve também a reação cínica de que o mundo é destruído justamente por causa dos pragmatistas