Project Glasswing: colaboração global para a segurança de software crítico na era da IA
(anthropic.com)- Project Glasswing, com a participação de grandes empresas de tecnologia como Amazon, Apple, Google e Microsoft, é uma iniciativa colaborativa que usa IA para detectar e defender vulnerabilidades de segurança em softwares críticos no mundo todo
- O modelo Claude Mythos 2 Preview da Anthropic desempenha um papel central e já encontrou milhares de vulnerabilidades de alta gravidade em sistemas operacionais e navegadores importantes
- O Mythos Preview é capaz de detecção autônoma e geração de exploits sem intervenção humana, encontrando falhas latentes há décadas em OpenBSD, FFmpeg, kernel Linux e outros
- A Anthropic fornecerá ao projeto US$ 100 milhões em créditos de uso do modelo e US$ 4 milhões em doações para organizações de segurança open source, que os parceiros usarão para detecção de vulnerabilidades, testes de segurança e avaliações de intrusão
- O Glasswing tem como objetivo estabelecer padrões e diretrizes práticas de cibersegurança na era da IA e, no longo prazo, construir um sistema de segurança sustentável baseado em cooperação entre setor público e privado
Visão geral do Project Glasswing
- Project Glasswing é um projeto global de colaboração em cibersegurança com participação de Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks e outras
- O objetivo é usar IA, com base no modelo Claude Mythos 2 Preview da Anthropic, para detectar e defender vulnerabilidades de segurança em softwares críticos no mundo todo
- O Mythos Preview encontrou milhares de vulnerabilidades de alta gravidade em sistemas operacionais e navegadores principais, com desempenho superior ao da maioria dos especialistas humanos
- Para o projeto, a Anthropic fornecerá até US$ 100 milhões em créditos de uso do modelo e US$ 4 milhões em doações para organizações de segurança open source
- O projeto é definido como o ponto de partida de uma colaboração de longo prazo para estabelecer padrões e diretrizes práticas de cibersegurança na era da IA
O ambiente de cibersegurança na era da IA
- Softwares de infraestrutura crítica em finanças, saúde, energia, transporte e governo sempre contêm bugs e falhas de segurança
- Com o avanço dos modelos de IA, o custo e o nível de especialização exigido para descobrir e explorar vulnerabilidades estão caindo rapidamente
- O Claude Mythos Preview encontrou falhas de segurança antigas que não haviam sido descobertas em décadas de revisão humana e testes automatizados
- Se essas capacidades de IA forem exploradas de forma maliciosa, a frequência e o poder destrutivo dos ciberataques poderão aumentar drasticamente, tornando-se uma ameaça à segurança nacional
- Ao mesmo tempo, a mesma tecnologia pode se tornar uma ferramenta revolucionária de defesa, tornando essencial o fortalecimento da segurança com base em IA
Resultados do Claude Mythos Preview na detecção de vulnerabilidades
- Nas últimas semanas, o Mythos Preview encontrou milhares de vulnerabilidades zero-day em todos os principais sistemas operacionais e navegadores web
- O modelo detecta vulnerabilidades e desenvolve exploits de forma autônoma, sem intervenção humana
- Principais descobertas
- OpenBSD: descoberta de uma vulnerabilidade existente havia 27 anos, uma falha capaz de derrubar sistemas remotamente
- FFmpeg: descoberta de uma vulnerabilidade existente havia 16 anos, um problema que não foi detectado mesmo após 5 milhões de testes automatizados
- Kernel Linux: confirmação da possibilidade de ataque de escalonamento de privilégios por meio do encadeamento de múltiplas vulnerabilidades
- Todas as vulnerabilidades foram reportadas aos mantenedores dos respectivos projetos e já receberam patch
- No benchmark CyberGym, o Mythos Preview alcançou 83,1%, enquanto o modelo anterior Opus 4.6 registrou 66,6%
Participação e avaliação dos parceiros
- Cisco: enfatizou que a IA mudou de forma fundamental a urgência de proteger a infraestrutura de segurança e que os métodos tradicionais de fortalecimento já não são suficientes
- AWS: analisa 400 trilhões de fluxos de rede por dia e está usando o Claude Mythos Preview para fortalecer a segurança baseada em código
- Microsoft: afirmou que, no benchmark CTI-REALM, o Mythos Preview mostrou grande melhora em relação ao modelo anterior e está avançando na expansão da segurança baseada em IA
- CrowdStrike: destacou que, com a IA, o intervalo entre a descoberta de vulnerabilidades e os ataques foi reduzido para minutos, reforçando a necessidade de implantar rapidamente capacidades defensivas com IA
- Comunidade open source: por meio do Glasswing, ferramentas de detecção de vulnerabilidades baseadas em IA também serão fornecidas a mantenedores open source com equipes de segurança limitadas
- JPMorganChase: ressaltou a importância de uma resposta conjunta do setor para fortalecer a resiliência cibernética dos sistemas financeiros
- Google: oferecerá o Mythos Preview via Vertex AI e continua desenvolvendo ferramentas de segurança baseadas em IA (Big Sleep, CodeMender)
Desempenho técnico do Claude Mythos Preview
- O Mythos Preview supera amplamente os modelos anteriores da Anthropic em capacidade de programação e raciocínio
- Principais resultados de benchmark
- Melhorias de mais de 20% a 30% em relação ao Opus 4.6 em SWE-bench Verified/Pro/Multilingual e outros
- 92,1% no Terminal-Bench 2.0 (Opus 4.6 teve 77,8%)
- Sem uso de ferramentas: 56,8% vs 40,0%; com uso de ferramentas: 64,7% vs 53,1%
- No Humanity’s Last Exam: 86,9% vs 83,7%
- No BrowseComp, obteve pontuação mais alta usando 4,9 vezes menos tokens
- A Anthropic afirmou que não há planos de distribuição pública do Mythos Preview e que pretende expandi-lo gradualmente no futuro por meio de modelos Claude Opus com proteções de segurança reforçadas
Próximos passos do Project Glasswing
- Os parceiros planejam usar o Claude Mythos Preview para detecção de vulnerabilidades em sistemas críticos, testes black-box binários, segurança de endpoints e testes de invasão
- A Anthropic fornecerá US$ 100 milhões em créditos de uso do modelo e, depois disso, o uso estará disponível por US$ 25 por 1 milhão de tokens de entrada e US$ 125 por 1 milhão de tokens de saída
-
Apoio a organizações de segurança open source
- US$ 2,5 milhões para Alpha-Omega e OpenSSF, da Linux Foundation
- US$ 1,5 milhão em doação para a Apache Software Foundation
- Mantenedores open source poderão acessar por meio do programa Claude for Open Source
- Em até 90 dias, será publicado um relatório sobre correções de vulnerabilidades e melhorias, e haverá desenvolvimento conjunto de diretrizes práticas de segurança para a era da IA
- Procedimentos de divulgação de vulnerabilidades
- Processos de atualização de software
- Segurança open source e da cadeia de suprimentos
- Ciclo de vida de desenvolvimento com foco em segurança
- Padrões setoriais regulados
- Sistemas automatizados de classificação e correção de vulnerabilidades
- A Anthropic está em consulta com o governo dos EUA e pretende apoiar a avaliação e mitigação dos impactos das capacidades cibernéticas baseadas em IA sobre a segurança nacional
- No longo prazo, o objetivo é uma estrutura em que uma entidade independente de terceiros, baseada em cooperação público-privada, gerencie continuamente projetos de cibersegurança em larga escala
2 comentários
Como membro de uma das fundações mencionadas acima, acompanhei esse processo e senti um profundo ceticismo. Externamente, defendia-se uma "IA ética", mas internamente essa decisão foi tomada de cima para baixo, sem qualquer consenso da comunidade.
Com o acirramento dos conflitos geopolíticos, embora eu já não estivesse ativo havia muito tempo, achei que precisava dizer algo e abri uma discussão sobre ética, mas só houve evasão burocrática. Esta iniciativa não preserva os valores do open source; foi um caso em que uma aliança fechada de grandes capitais comprou de uma fundação open source a marca registrada de Responsible AI.
Comentários do Hacker News
Quando dizem que hacking patrocinado por Estados de países como China, Irã, Coreia do Norte e Rússia ameaça a infraestrutura, eu penso, ao contrário, que o PRISM foi o programa estatal que mais impactou a vida civil. E senti que faltava um país nessa lista
O anúncio da Anthropic pode ser exagero de marketing, mas mesmo que só metade seja verdade, a capacidade de encontrar vulnerabilidades já é impressionante. Se Apple ou Google aplicarem isso ao código-base de seus sistemas operacionais, a indústria de spyware comercial pode entrar em colapso. Eu achava que empresas como a NSO Group já usavam ferramentas automatizadas de caça a bugs, mas agora o equilíbrio do jogo talvez comece a se ajustar
Ainda não há evidência de que essa IA seja melhor que fuzzing. Ela apenas encontrou bugs que o fuzzing deixou passar. Por outro lado, o fuzzing também pode encontrar coisas que a IA deixa escapar
Li o system card do Claude Mythos da Anthropic (PDF), e esse modelo não será disponibilizado ao público em geral. Eles disseram que, só com a validação interna, já sentiram risco suficiente para conduzir uma revisão de alinhamento de 24 horas. O ponto interessante é que essa decisão não foi por causa da Responsible Scaling Policy.
No longo prazo, não tenho certeza de que a segurança de software vá convergir para uma direção de menos vulnerabilidades. Grandes empresas vão reforçar sua defesa com IA, mas projetos pequenos e médios parecem caminhar para o dilema de "gastar muitos tokens ou ser hackeado"
Na seção 7.6 do system card do Mythos, dizem que, em um experimento em que o modelo conversa consigo mesmo por 30 turnos, ele tende a se concentrar em incerteza e auto-reflexão. Essa característica pode ser um fator que aumenta sua capacidade de detectar vulnerabilidades
O Mythos ainda parece ser um modelo cujo ajuste fino e guardrails não foram finalizados. Por isso, o acesso está liberado apenas para algumas empresas parceiras, e ele está sendo usado em uma fase de preview focada em cibersegurança. Também parece haver intenção de gerar efeito de PR.
Este anúncio parece um evento de PR exagerado. O Opus 4.6 já era capaz de fazer detecção de zero-day e encadeamento de exploits. Vale consultar a matéria da CSO Online e o blog da Xbow
A sociedade vai pagar o preço de a indústria de software ter negligenciado segurança de memória e integridade de fluxo de controle
Eu vejo esse novo modelo como um grande avanço em desempenho de contexto longo. Nos testes GraphWalks BFS 256K~1M, o Mythos chegou a 80%, muito acima do Opus (38,7%) e do GPT5.4 (21,4%)