4 Punkte von GN⁺ 2025-05-03 | 1 Kommentare | Auf WhatsApp teilen
  • Ein xAI-Entwickler hat auf GitHub einen privaten LLM-API-Schlüssel offengelegt, wodurch zwei Monate lang jeder auf interne Modelle zugreifen konnte
  • Der Schlüssel hatte Zugriff auf mehr als 60 LLMs, darunter Entwicklungsversionen von Grok sowie mit Daten von SpaceX und Tesla trainierte Modelle
  • GitGuardian warnte bereits vor zwei Monaten, doch der Schlüssel blieb weiterhin gültig und wurde erst nach Bestätigung durch das Sicherheitsteam von GitHub entfernt
  • Dieses mangelhafte Management von Zugangsdaten birgt nicht nur das Risiko der Offenlegung interner Entwicklungsinformationen, sondern auch die Möglichkeit von Supply-Chain-Angriffen oder Prompt Injection
  • Gleichzeitig wurden Hinweise bekannt, dass die DOGE-Organisation Daten der US-Bundesregierung in KI einspeist, was die Sorgen über die Sicherheit von KI im Musk-Umfeld weiter verstärkt

Interner LLM-API-Schlüssel von xAI auf GitHub geleakt

  • Ein Entwickler von xAI, der KI-Firma von Elon Musk, hat versehentlich einen API-Schlüssel für den Zugriff auf interne LLMs auf GitHub öffentlich gemacht
  • Der betreffende Schlüssel hatte Berechtigungen für den Zugriff auf auf SpaceX, Tesla und Twitter/X spezialisierte LLMs

Wie der Schlüssel geleakt wurde und wie Warnungen ignoriert wurden

  • Philippe Caturegli vom Sicherheitsberatungsunternehmen Seralys machte das Leck zuerst öffentlich auf LinkedIn bekannt
  • GitGuardian wurde durch diesen Beitrag auf den Schlüssel aufmerksam und verschickte auf Basis seiner kontinuierlichen Überwachung von GitHub eine Warn-E-Mail
  • Obwohl die Warnung bereits am 2. März erfolgte, war der Schlüssel bis zum 30. April weiterhin gültig; das Repository wurde erst gelöscht, nachdem das Sicherheitsteam informiert war

Auswirkungen des geleakten Schlüssels

  • GitGuardian berichtete, dass der Schlüssel Zugriff auf öffentliche und nicht öffentliche Modelle von Grok ermöglichte
    • Beispiele: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector usw.
  • Mit dem Schlüssel war der Zugriff auf mindestens mehr als 60 unveröffentlichte und feinabgestimmte LLMs möglich

Warnungen von Sicherheitsexperten

  • Carole Winqwist, CMO von GitGuardian, warnte, dass Angreifer mit dem Schlüssel unter anderem folgende Bedrohungen umsetzen könnten:
    • Prompt Injection
    • Manipulation von LLMs
    • Auslösung von Supply-Chain-Angriffen
  • Das Leck wird als Beispiel dafür gewertet, dass es bei xAI an Überwachung der internen Sicherheit und am Management der Schlüssellebensdauer mangelte

Verbindung zu Regierungsbehörden und größere Bedenken

  • Es gibt zwar keine Belege dafür, dass der geleakte Schlüssel direkt mit Regierungsdaten verbunden war, doch die betreffenden Modelle wurden wahrscheinlich mit internen Daten von SpaceX, Twitter und Tesla trainiert
  • Gleichzeitig speist DOGE (Department of Government Efficiency) unter Musks Führung bereits Daten der US-Bundesregierung in KI-Systeme ein
    • Analyse von Daten des Bildungsministeriums mit KI
    • Bereitstellung des GSAi-Chatbots für Bundesbeamte
    • Hinweise auf den Einsatz von KI zur Überwachung der Unterstützung für die Trump-Regierung
  • Das stärkt eine Struktur, in der Betreiber von KI-Systemen sensible Daten kontrollieren können, und erhöht damit das Risiko von Lecks

Fazit und Sicherheitswarnung

  • Über einen langen Zeitraum offengelegte interne Zugangsdaten zeigen Schwachstellen bei der Entwickler-Zugriffskontrolle und im internen Sicherheitsbetrieb
  • Caturegli bewertet den Vorfall als Warnsignal, das die Notwendigkeit eines strengeren Managements der Betriebssicherheit verdeutlicht

1 Kommentare

 
GN⁺ 2025-05-03
Hacker-News-Kommentar
  • Obwohl GitGuardian einen xAI-Mitarbeiter bereits vor fast zwei Monaten auf den offengelegten API-Schlüssel hingewiesen hatte, war der Schlüssel immer noch gültig

    • xAI forderte GitGuardian auf, das Problem über das Bug-Bounty-Programm von HackerOne zu melden, doch wenige Stunden später wurde das Repository mit dem API-Schlüssel von GitHub entfernt
    • Es ist erstaunlich, dass das Sicherheitsteam die Meldung an das HackerOne-Programm verwiesen hat
    • Immerhin ist es gut, dass es am Ende bei den Personen gelandet ist, die das Problem tatsächlich beheben konnten
  • Die Offenlegung des SpaceX-Daten-LLM könnte ein großer Auslöser für einen ITAR-Verstoß sein

  • Das ist absolute Inkompetenz

    • Nicht nur Entwickler, sondern alle Organisationen sollten kontinuierlich nach geleakten API-Schlüsseln scannen
    • Ein Fehler ist mehrere Fehler zugleich
  • Natürlich stellt Elon nach „Kompetenz“ ein

  • Ich bin eher neugierig, wofür das persönliche Modell „tweet-rejector“ verwendet wird

  • Am erstaunlichsten ist, dass Regierungsbeamte einigen US-Regierungsmitarbeitern gesagt haben, DOGE nutze KI, um die Kommunikation in mindestens einer Bundesbehörde zu überwachen

    • Ich verstehe, dass man am Arbeitsplatz keine Privatsphäre erwarten kann, aber dass der Arbeitgeber im Wesentlichen Gesinnungsverbrechen überwacht, ist schrecklich
    • Ist Meinungsverschiedenheit nicht etwas Gesundes?
  • Auffällig ist, dass Journalisten fälschlicherweise annehmen, man könne mit dem API-Schlüssel eines LLM Daten einspeisen

    • Die Leute verstehen offenbar immer noch nicht, wie LLMs funktionieren, und glauben, man könne sie auf API-Ebene trainieren, indem man mit ihnen interagiert
  • Gemeint ist ein ehemaliger KI-Entwickler

  • [gelöscht]

  • [gelöscht]

  • [gemeldet]