- A empresa de pesquisa em inteligência artificial Anthropic revogou compromissos importantes de sua política central de segurança, a Responsible Scaling Policy (RSP)
- Antes, a empresa prometia interromper o treinamento de modelos de IA caso as medidas de segurança não estivessem suficientemente garantidas, mas essa cláusula foi removida na nova política
- A nova RSP promete mais transparência e esforços de segurança ao menos no nível dos concorrentes, além de afirmar que pode “adiar” o desenvolvimento se o risco for grave
- A empresa explicou que a mudança não se deve à pressão do mercado, mas sim a uma resposta à realidade política e científica
- Especialistas avaliam a medida como um sinal de falta de preparação social para riscos catastróficos da IA
Contexto da mudança na RSP (Responsible Scaling Policy)
- Em 2023, a Anthropic anunciou o compromisso de não treinar sistemas de IA se as medidas de segurança não estivessem suficientemente comprovadas
- Essa era uma política central que reforçava a imagem da empresa de priorizar a segurança acima da competição de mercado
- Recentemente, a empresa reformulou a RSP por completo e retirou a promessa de não lançar modelos sem garantias prévias de segurança
- Jared Kaplan (Chief Science Officer) afirmou que “promessas unilaterais não são realistas porque o avanço da IA é rápido demais”
Principais pontos da nova política
- A nova RSP inclui maior transparência sobre os riscos de segurança da IA
- Ela prevê divulgar mais resultados de testes de segurança dos modelos da Anthropic e manter ou superar medidas de segurança no nível dos concorrentes
- A empresa poderá adiar o desenvolvimento se estiver na liderança da corrida da IA e julgar que o risco catastrófico é elevado
- No entanto, desaparece a linha de corte clara que antes proibia o treinamento de modelos acima de determinado nível
Contexto industrial da mudança de política
- A Anthropic vem obtendo resultados comerciais com o sucesso do modelo Claude e do Claude Code
- Em fevereiro de 2026, reportou captação de US$ 30 bilhões, valuation de cerca de US$ 380 bilhões e crescimento de 10x na receita anual
- O modelo de negócios focado em B2B da empresa é visto como mais confiável do que a estratégia voltada ao consumidor da OpenAI
- Kaplan enfatizou que a mudança não decorre de pressão de mercado, mas de um ajuste pragmático às mudanças no ambiente político e científico
Limites regulatórios e científicos
- Quando introduziu a RSP, a Anthropic esperava que outras empresas adotassem medidas semelhantes, mas isso não aconteceu
- Seguem a ausência de legislação federal de regulação de IA nos EUA, a tendência de desregulamentação do governo Trump e o fracasso da cooperação internacional
- A complexidade da ciência de avaliação de IA também é apontada como problema
- Em 2025, a Anthropic anunciou que não podia descartar a possibilidade de uso indevido de seus modelos para bioterrorismo, mas faltavam bases científicas para comprovar isso
Discussões internas e processo de decisão
- Ao longo de cerca de um ano, a diretoria discutiu como reformular a RSP para o novo ambiente
- O ponto central era o princípio fundador de que para pesquisar segurança em IA é preciso desenvolver diretamente modelos de fronteira
- Segundo Kaplan, o CEO Dario Amodei concluiu que “se os concorrentes continuarem desenvolvendo, e apenas a Anthropic parar, isso pode ser ainda mais perigoso”
- O prefácio da nova RSP afirma que “se o desenvolvedor com as proteções mais fracas ditar o ritmo, os desenvolvedores responsáveis perderão a capacidade de fazer pesquisa em segurança”
Avaliações externas e preocupações
- Chris Painter (diretor de políticas da METR) avaliou que a mudança é compreensível, mas revela a falta de preparação social para riscos catastróficos da IA
- Ele afirmou que a Anthropic entrou em um modo de resposta emergencial (triagem) porque “a avaliação de riscos e os métodos de mitigação não acompanham a velocidade do avanço tecnológico”
- Painter avaliou positivamente a divulgação transparente de riscos e do roadmap de segurança na nova política, mas
- alertou que, com o desaparecimento do limiar binário de interrupção (binary threshold) da RSP anterior, pode surgir um efeito de aquecimento gradual do sapo à medida que o risco aumenta lentamente
Planos futuros e compromissos de divulgação
- A Anthropic afirma que a nova RSP mantém as principais vantagens da política anterior
- No passado, as restrições ao lançamento de modelos funcionavam como incentivo ao desenvolvimento de medidas de mitigação de segurança
- Para manter esse incentivo na nova política, a empresa pretende divulgar regularmente os Frontier Safety Roadmaps
- Além disso, publicará Risk Reports a cada 3 a 6 meses, que
- incluirão avaliações sobre capacidades dos modelos, cenários de ameaça, medidas de mitigação de risco e nível geral de risco
- Kaplan destacou que “se os concorrentes responderem com transparência aos riscos catastróficos, a Anthropic também manterá padrões de segurança equivalentes ou superiores”
2 comentários
Por mais que a Anthropic insista, no fim das contas, se o Departamento de Defesa dos EUA mandar, ela vai ter que obedecer. No final, talvez esse já fosse o desfecho inevitável, não é?
Comentários do Hacker News
Ver a Anthropic dizer que retirou a promessa de interromper o treinamento de IA porque “os concorrentes estão avançando” faz parecer que, no fim, era tudo por dinheiro
Soa como uma lógica do tipo “se todo mundo está chutando cachorros, então nós também temos que chutar”.
As pessoas acreditavam que a Anthropic era uma “empresa boazinha”, mas no fim ela também é só mais uma entidade correndo atrás de lucro
Mas, na realidade, a maioria das empresas de IA está sob um “governo de papel” apenas
Não é um problema exclusivo das empresas de IA, mas isso também não o torna justificável
Por isso regulações de segurança, ambientais e anticorrupção são indispensáveis
Parece o ciclo típico de uma startup de IA
“Vamos construir um fosso para salvar a humanidade” → “Vamos regular os concorrentes open source” → “Segurança atrapalha o resultado do Q3”
Na prática são fechadas, mas fazem gaslighting ao dizer que são “abertas”
Trabalhei na Anthropic no passado, e pessoas como Jared Kaplan realmente se preocupavam em equilibrar pesquisa em segurança com tecnologia de fronteira
Mas essa decisão é decepcionante. Eu acreditava que a ‘Responsible Scaling Policy’ era um compromisso real que seria mantido mesmo em situações como esta
Essa promessa fazia a Anthropic parecer “o laboratório menos perigoso”, mas agora esse sinal enfraqueceu
Daqui para frente, temo que manter o cargo passe a vir antes dos princípios
Ainda assim, se algum valor restar, acho melhor exercer influência, mesmo que seja entre laboratórios completamente sem valores
A responsabilidade moral precisa ser compartilhada por todos nós
O fato de terem retirado esse sinal por conta própria significa que agora estão se movendo em direção a outro mercado
Pediam aos candidatos que escrevessem uma redação sobre segurança em IA, e todos encenavam a peça de que estavam “salvando o mundo”
No fim, agora que o dinheiro entrou em jogo, ninguém abre a boca
Porque empresas, estruturalmente, não conseguem escapar do instinto de maximização do lucro
Essa decisão lembra o momento em que a Mozilla aceitou DRM
Não é perfeito, mas mesmo assim a Anthropic ao menos está tentando ter um mínimo de responsabilidade
Comparada à OpenAI, ainda parece haver algum espaço para confiança
O título da matéria está exagerado. Esta controvérsia não é sobre negociações com o Pentágono, e sim sobre a Responsible Scaling Policy 3.0 divulgada pela Anthropic
Pode até ser uma medida preventiva
Houve pressão do governo, mas a matéria não menciona isso em nenhum momento
Um texto que começa com “No início, quando lançaram o modelo sem validação de segurança, ninguém disse nada…” soa como uma fábula de advertência
No fim, ninguém se preparou, e quando o problema explodiu já era tarde demais
O verdadeiro problema está mais no campo da política e da cultura do que na tecnologia
Retirar a promessa de segurança justamente agora é algo significativo
Empresas assim seguem códigos éticos até que os lucros sejam ameaçados, e então os descartam imediatamente
No fim, o objetivo é a desvalorização do trabalho de colarinho branco
Será que vão conduzir essa transição de forma ética, ou apenas transferir riqueza para os acionistas?
É uma cobra comendo o próprio rabo
A essência de uma empresa é buscar lucro, e isso em si não é ruim, mas esses gestos morais soam hipócritas
O “Don’t be evil” do Google durou 15 anos, mas a Responsible Scaling Policy da Anthropic sumiu em apenas dois anos e meio
A meia-vida do idealismo em IA está ficando cada vez mais curta
É uma pena ver a mudança na Anthropic, mas, na prática, ela também não pode ficar para trás demais na competição se quiser manter a segurança
Agora é um momento que exige pragmatismo. A Anthropic pode até “ficar má” depois, mas por enquanto ainda é o lado mais seguro
O fato de o CEO ter recusado o uso de IA para fins de guerra é visto de forma positiva
É preciso ficar alerta antes que seja tarde demais