- Um desenvolvedor da xAI expôs no GitHub uma chave privada de API de LLM, permitindo por dois meses que qualquer pessoa acessasse modelos internos
- A chave tinha permissão para acessar mais de 60 LLMs, incluindo versões de desenvolvimento do Grok e modelos treinados com dados da SpaceX e da Tesla
- A GitGuardian alertou sobre o problema há dois meses, mas a chave continuou válida e só foi removida do GitHub depois que a equipe de segurança confirmou o caso
- Essa má gestão de credenciais não só expõe informações internas de desenvolvimento, como também abre espaço para ataques à cadeia de suprimentos e injeção de prompt
- Ao mesmo tempo, também surgiram indícios de que a organização DOGE está alimentando IAs com dados do governo federal, ampliando as preocupações com a segurança das IAs ligadas a Musk
Chave interna de API de LLM da xAI vazou no GitHub
- Um desenvolvedor da xAI, empresa de IA de Elon Musk, publicou por engano no GitHub uma chave de API para acesso interno a LLMs
- A chave tinha permissão para acessar LLMs especializados para SpaceX, Tesla e Twitter/X
Como a chave vazou e o alerta foi ignorado
- Philippe Caturegli, da empresa de consultoria em segurança Seralys, foi o primeiro a alertar publicamente no LinkedIn sobre o vazamento da chave
- A GitGuardian tomou conhecimento da chave por meio dessa postagem e enviou um e-mail de alerta após monitorar continuamente o GitHub
- Apesar do alerta em 2 de março, até 30 de abril a chave ainda era válida, e o repositório só foi removido depois que a equipe de segurança tomou conhecimento
Impacto da chave vazada
- A GitGuardian informou que a chave permitia acesso aos modelos públicos e privados do Grok
- Exemplos:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector etc.
- A chave podia acessar pelo menos mais de 60 LLMs não divulgados e ajustados por fine-tuning
Alertas de especialistas em segurança
- A CMO da GitGuardian, Carole Winqwist, alertou que invasores poderiam usar a chave para realizar ameaças como
- injeção de prompt
- manipulação de LLMs
- indução de ataques à cadeia de suprimentos
- O vazamento é visto como um caso que evidencia falta de monitoramento da segurança interna e falha na gestão do ciclo de vida das chaves na xAI
Relação com órgãos do governo e preocupações mais amplas
- Embora não haja evidências de que a chave vazada estivesse diretamente ligada a dados do governo, é bastante provável que os modelos relacionados tenham sido treinados com dados internos da SpaceX, do Twitter e da Tesla
- Enquanto isso, o DOGE (Department of Government Efficiency), liderado por Musk, já estaria fornecendo dados do governo federal dos EUA para sistemas de IA
- análise de dados do Departamento de Educação com IA
- distribuição do chatbot GSAi a servidores federais
- indícios de uso de IA para monitorar apoio ao governo Trump
- Isso reforça uma estrutura em que operadores de sistemas de IA podem controlar dados sensíveis, aumentando o risco de vazamentos
Conclusão e alerta de segurança
- Credenciais internas expostas por longos períodos mostram falhas no controle de acesso de desenvolvedores e na operação de segurança interna
- Caturegli avaliou que o caso serve de alerta para a necessidade de uma gestão mais rigorosa da segurança operacional
1 comentários
Comentários no Hacker News
Apesar de já terem se passado quase dois meses desde que a GitGuardian alertou um funcionário da xAI sobre a exposição da chave de API, a chave ainda continuava válida
A exposição do LLM de dados da SpaceX provavelmente tem grande potencial de configurar uma violação do ITAR
É incompetência absoluta
Claro, o Elon contrata com base em "competência"
Fico mais curioso sobre para que serve o modelo pessoal
tweet-rejectorO mais surpreendente é que autoridades do governo disseram a alguns funcionários do governo dos EUA que o DOGE está usando IA para monitorar as comunicações de pelo menos uma agência federal
Chama atenção que os jornalistas assumam erroneamente que, tendo a chave de API de um LLM, seria possível injetar dados
Quer dizer ex-desenvolvedor de IA
[removido]
[removido]
[denunciado]