- Ein xAI-Entwickler hat auf GitHub einen privaten LLM-API-Schlüssel offengelegt, wodurch zwei Monate lang jeder auf interne Modelle zugreifen konnte
- Der Schlüssel hatte Zugriff auf mehr als 60 LLMs, darunter Entwicklungsversionen von Grok sowie mit Daten von SpaceX und Tesla trainierte Modelle
- GitGuardian warnte bereits vor zwei Monaten, doch der Schlüssel blieb weiterhin gültig und wurde erst nach Bestätigung durch das Sicherheitsteam von GitHub entfernt
- Dieses mangelhafte Management von Zugangsdaten birgt nicht nur das Risiko der Offenlegung interner Entwicklungsinformationen, sondern auch die Möglichkeit von Supply-Chain-Angriffen oder Prompt Injection
- Gleichzeitig wurden Hinweise bekannt, dass die DOGE-Organisation Daten der US-Bundesregierung in KI einspeist, was die Sorgen über die Sicherheit von KI im Musk-Umfeld weiter verstärkt
Interner LLM-API-Schlüssel von xAI auf GitHub geleakt
- Ein Entwickler von xAI, der KI-Firma von Elon Musk, hat versehentlich einen API-Schlüssel für den Zugriff auf interne LLMs auf GitHub öffentlich gemacht
- Der betreffende Schlüssel hatte Berechtigungen für den Zugriff auf auf SpaceX, Tesla und Twitter/X spezialisierte LLMs
Wie der Schlüssel geleakt wurde und wie Warnungen ignoriert wurden
- Philippe Caturegli vom Sicherheitsberatungsunternehmen Seralys machte das Leck zuerst öffentlich auf LinkedIn bekannt
- GitGuardian wurde durch diesen Beitrag auf den Schlüssel aufmerksam und verschickte auf Basis seiner kontinuierlichen Überwachung von GitHub eine Warn-E-Mail
- Obwohl die Warnung bereits am 2. März erfolgte, war der Schlüssel bis zum 30. April weiterhin gültig; das Repository wurde erst gelöscht, nachdem das Sicherheitsteam informiert war
Auswirkungen des geleakten Schlüssels
- GitGuardian berichtete, dass der Schlüssel Zugriff auf öffentliche und nicht öffentliche Modelle von Grok ermöglichte
- Beispiele:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector usw.
- Mit dem Schlüssel war der Zugriff auf mindestens mehr als 60 unveröffentlichte und feinabgestimmte LLMs möglich
Warnungen von Sicherheitsexperten
- Carole Winqwist, CMO von GitGuardian, warnte, dass Angreifer mit dem Schlüssel unter anderem folgende Bedrohungen umsetzen könnten:
- Prompt Injection
- Manipulation von LLMs
- Auslösung von Supply-Chain-Angriffen
- Das Leck wird als Beispiel dafür gewertet, dass es bei xAI an Überwachung der internen Sicherheit und am Management der Schlüssellebensdauer mangelte
Verbindung zu Regierungsbehörden und größere Bedenken
- Es gibt zwar keine Belege dafür, dass der geleakte Schlüssel direkt mit Regierungsdaten verbunden war, doch die betreffenden Modelle wurden wahrscheinlich mit internen Daten von SpaceX, Twitter und Tesla trainiert
- Gleichzeitig speist DOGE (Department of Government Efficiency) unter Musks Führung bereits Daten der US-Bundesregierung in KI-Systeme ein
- Analyse von Daten des Bildungsministeriums mit KI
- Bereitstellung des GSAi-Chatbots für Bundesbeamte
- Hinweise auf den Einsatz von KI zur Überwachung der Unterstützung für die Trump-Regierung
- Das stärkt eine Struktur, in der Betreiber von KI-Systemen sensible Daten kontrollieren können, und erhöht damit das Risiko von Lecks
Fazit und Sicherheitswarnung
- Über einen langen Zeitraum offengelegte interne Zugangsdaten zeigen Schwachstellen bei der Entwickler-Zugriffskontrolle und im internen Sicherheitsbetrieb
- Caturegli bewertet den Vorfall als Warnsignal, das die Notwendigkeit eines strengeren Managements der Betriebssicherheit verdeutlicht
1 Kommentare
Hacker-News-Kommentar
Obwohl GitGuardian einen xAI-Mitarbeiter bereits vor fast zwei Monaten auf den offengelegten API-Schlüssel hingewiesen hatte, war der Schlüssel immer noch gültig
Die Offenlegung des SpaceX-Daten-LLM könnte ein großer Auslöser für einen ITAR-Verstoß sein
Das ist absolute Inkompetenz
Natürlich stellt Elon nach „Kompetenz“ ein
Ich bin eher neugierig, wofür das persönliche Modell „tweet-rejector“ verwendet wird
Am erstaunlichsten ist, dass Regierungsbeamte einigen US-Regierungsmitarbeitern gesagt haben, DOGE nutze KI, um die Kommunikation in mindestens einer Bundesbehörde zu überwachen
Auffällig ist, dass Journalisten fälschlicherweise annehmen, man könne mit dem API-Schlüssel eines LLM Daten einspeisen
Gemeint ist ein ehemaliger KI-Entwickler
[gelöscht]
[gelöscht]
[gemeldet]