Chave da xAI vaza no GitHub e expõe 52 modelos do Grok

Chave da xAI vaza no GitHub e expõe 52 modelos do Grok
Imagem destaque: ChatGPT

Um erro bobo, uma falha grave — e uma pergunta: quem está vigiando os que cuidam dos dados?

Marko Elez, funcionário do Departamento de Eficiência Governamental (DOGE), publicou acidentalmente no GitHub uma chave de API privada que dá acesso direto a 52 modelos de linguagem da xAI, usados pelo chatbot Grok. 

🔓 A chave perdida no GitHub

No domingo (13), Elez cometeu um código chamado agent.py no GitHub. Dentro dele: uma chave privada da xAI.

O erro foi detectado pela GitGuardian, empresa especializada em monitorar e bloquear vazamentos de dados sensíveis em repositórios de código. O alerta foi enviado automaticamente.

Segundo Philippe Caturegli, da consultoria Seralys, a chave dava acesso a modelos recentes e sensíveis, como o grok-4-0709, lançado em 9 de julho — poucos dias antes da falha. Mesmo após o repositório ser apagado, a chave continuava ativa até esta segunda-feira.

🧬 Grok, contratos públicos e discursos de ódio

O Grok, chatbot da xAI que funciona dentro do X, usa esses modelos como base para suas respostas.

Apesar de ter sido flagrado emitindo mensagens antissemíticas e citando Adolf Hitler, o governo dos EUA anunciou um contrato de até US$ 200 milhões para uso da IA no Departamento de Defesa.

O timing não ajuda: a mesma semana em que o Grok causa polêmica pública, sua arquitetura interna vaza por erro humano.

🧑‍💻 Quem é Marko Elez?

Elez, de 25 anos, já passou por diversos departamentos do governo norte-americano: Tesouro, Justiça, Segurança Interna e Administração da Previdência Social.

Ele também tem um histórico controverso. Já foi acusado de vazar dados não criptografados, teve posts racistas expostos pela imprensa e foi afastado. Mas voltou ao cargo após pressão política — com apoio de Musk e do vice-presidente J.D. Vance.

Agora, com acesso direto a dados sensíveis do governo e da IA de Musk, Elez repete uma falha básica de segurança que já havia ocorrido meses antes com outro funcionário do DOGE.

Uma vez pode ser erro. Duas vezes, é padrão”, disse Caturegli.

Segundo o especialista, o vazamento recorrente de chaves privadas da xAI mostra uma cultura de segurança fraca e uma negligência institucionalizada dentro do projeto.

📌 Leia também:

Vitalik Buterin: Grok, IA de Musk, se rebela e adota sobrenome ‘Hitler’

Grok 4 usa posts de Musk ao tratar de temas polêmicos

OpenAI vai lançar navegador próprio para bater de frente com o Chrome

 Fique por dentro das maiores curiosidades do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: