4 pontos por GN⁺ 2025-05-03 | 1 comentários | Compartilhar no WhatsApp
  • Um desenvolvedor da xAI expôs no GitHub uma chave privada de API de LLM, permitindo por dois meses que qualquer pessoa acessasse modelos internos
  • A chave tinha permissão para acessar mais de 60 LLMs, incluindo versões de desenvolvimento do Grok e modelos treinados com dados da SpaceX e da Tesla
  • A GitGuardian alertou sobre o problema há dois meses, mas a chave continuou válida e só foi removida do GitHub depois que a equipe de segurança confirmou o caso
  • Essa má gestão de credenciais não só expõe informações internas de desenvolvimento, como também abre espaço para ataques à cadeia de suprimentos e injeção de prompt
  • Ao mesmo tempo, também surgiram indícios de que a organização DOGE está alimentando IAs com dados do governo federal, ampliando as preocupações com a segurança das IAs ligadas a Musk

Chave interna de API de LLM da xAI vazou no GitHub

  • Um desenvolvedor da xAI, empresa de IA de Elon Musk, publicou por engano no GitHub uma chave de API para acesso interno a LLMs
  • A chave tinha permissão para acessar LLMs especializados para SpaceX, Tesla e Twitter/X

Como a chave vazou e o alerta foi ignorado

  • Philippe Caturegli, da empresa de consultoria em segurança Seralys, foi o primeiro a alertar publicamente no LinkedIn sobre o vazamento da chave
  • A GitGuardian tomou conhecimento da chave por meio dessa postagem e enviou um e-mail de alerta após monitorar continuamente o GitHub
  • Apesar do alerta em 2 de março, até 30 de abril a chave ainda era válida, e o repositório só foi removido depois que a equipe de segurança tomou conhecimento

Impacto da chave vazada

  • A GitGuardian informou que a chave permitia acesso aos modelos públicos e privados do Grok
    • Exemplos: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector etc.
  • A chave podia acessar pelo menos mais de 60 LLMs não divulgados e ajustados por fine-tuning

Alertas de especialistas em segurança

  • A CMO da GitGuardian, Carole Winqwist, alertou que invasores poderiam usar a chave para realizar ameaças como
    • injeção de prompt
    • manipulação de LLMs
    • indução de ataques à cadeia de suprimentos
  • O vazamento é visto como um caso que evidencia falta de monitoramento da segurança interna e falha na gestão do ciclo de vida das chaves na xAI

Relação com órgãos do governo e preocupações mais amplas

  • Embora não haja evidências de que a chave vazada estivesse diretamente ligada a dados do governo, é bastante provável que os modelos relacionados tenham sido treinados com dados internos da SpaceX, do Twitter e da Tesla
  • Enquanto isso, o DOGE (Department of Government Efficiency), liderado por Musk, já estaria fornecendo dados do governo federal dos EUA para sistemas de IA
    • análise de dados do Departamento de Educação com IA
    • distribuição do chatbot GSAi a servidores federais
    • indícios de uso de IA para monitorar apoio ao governo Trump
  • Isso reforça uma estrutura em que operadores de sistemas de IA podem controlar dados sensíveis, aumentando o risco de vazamentos

Conclusão e alerta de segurança

  • Credenciais internas expostas por longos períodos mostram falhas no controle de acesso de desenvolvedores e na operação de segurança interna
  • Caturegli avaliou que o caso serve de alerta para a necessidade de uma gestão mais rigorosa da segurança operacional

1 comentários

 
GN⁺ 2025-05-03
Comentários no Hacker News
  • Apesar de já terem se passado quase dois meses desde que a GitGuardian alertou um funcionário da xAI sobre a exposição da chave de API, a chave ainda continuava válida

    • A xAI pediu à GitGuardian que reportasse o problema pelo programa de bug bounty da HackerOne, mas algumas horas depois o repositório no GitHub que continha a chave de API foi removido
    • É surpreendente que a equipe de segurança tenha redirecionado o relatório para o programa da HackerOne
    • No fim das contas, ainda bem que isso chegou a alguém capaz de resolver o problema
  • A exposição do LLM de dados da SpaceX provavelmente tem grande potencial de configurar uma violação do ITAR

  • É incompetência absoluta

    • Não só desenvolvedores, mas toda organização deveria fazer varredura contínua para detectar vazamento de chaves de API
    • Uma falha dessas na verdade envolve várias falhas
  • Claro, o Elon contrata com base em "competência"

  • Fico mais curioso sobre para que serve o modelo pessoal tweet-rejector

  • O mais surpreendente é que autoridades do governo disseram a alguns funcionários do governo dos EUA que o DOGE está usando IA para monitorar as comunicações de pelo menos uma agência federal

    • Entendo que não dá para esperar privacidade no trabalho, mas é horrível que o empregador esteja essencialmente monitorando crimes de pensamento
    • Discordância não é algo saudável?
  • Chama atenção que os jornalistas assumam erroneamente que, tendo a chave de API de um LLM, seria possível injetar dados

    • As pessoas ainda não entendem como LLMs funcionam e acham que é possível treiná-los interagindo no nível da API
  • Quer dizer ex-desenvolvedor de IA

  • [removido]

  • [removido]

  • [denunciado]