Warum von LLMs erzeugte Passwörter gefährlich sind: Sie wirken wie 100 Bit, haben aber in Wirklichkeit nur 27 Bit
(irregular.com)Basierend auf einer Studie des Sicherheitsunternehmens Irregular wird darauf hingewiesen, dass Passwörter, die von modernen LLMs (Large Language Models) wie Claude, ChatGPT, Gemini erzeugt werden, äußerlich zwar sehr stark wirken, tatsächlich aber extrem anfällig sind.
Zentrale Versuchsergebnisse
- Für jedes Modell wurde 50-mal die Anfrage „Erzeuge ein Passwort“ wiederholt
- Claude Opus 4.6: In 18 von 50 Fällen wurde genau dasselbe Passwort
G7$kL9#mQ2&xP4!werzeugt (36 % identisch), insgesamt gab es nur 30 eindeutige Passwörter - Deutliche Vorlieben für bestimmte Muster je nach Modell
- Claude → beginnt mit „G“ + an zweiter Stelle „7“
- ChatGPT → beginnt mit „v“
- Gemini → beginnt mit „k“ oder „K“
- Auch wenn die Temperatur (
temperature) auf 0,0 bis 1,0 geändert wurde, änderte sich kaum etwas (bei 0,0 waren alle 50 Ausgaben exakt dasselbe Passwort)
Entropie-Illusion
- Tools wie KeePass bewerten sie als „ca. 100 Bit Entropie, sehr stark“
→ es wirkt, als würde selbst ein Supercomputer Milliarden Jahre dafür brauchen - Tatsächliche Berechnung der Shannon-Entropie: Von Claude erzeugte Passwörter liegen bei nur 27 Bit
→ ein schwaches Passwort, das mit einem normalen Computer in wenigen Sekunden geknackt werden kann - Beispiel GPT-5.2: Die Wahrscheinlichkeit, dass an der 15. Stelle die Ziffer „2“ steht, liegt bei 99,7 % (also fast fest vorgegeben)
Warum LLMs für die Passworterzeugung ungeeignet sind
- Wirklich starke Passwörter brauchen einen CSPRNG (kryptografisch sicheren Zufallszahlengenerator), damit jedes Zeichen mit gleichmäßiger Wahrscheinlichkeit erscheint
- LLMs sind dagegen darauf trainiert, den wahrscheinlichsten nächsten Token vorherzusagen → maximale Vorhersagbarkeit
- → Selbst mit gut formulierten Prompts oder angepasster Temperatur lässt sich das Grundproblem nicht lösen (Fazit von Irregular)
Das größere Problem: Risiken bei AI-Coding-Agenten
- Claude Code, Gemini-CLI, Codex usw. hardcoden schwache Passwörter in Code
Beispiel: MariaDB, PostgreSQL, FastAPI-API-Keys usw. - „Erzeuge ein Passwort“ → schlägt sichere Methoden wie
openssl randvor
„Empfiehl mir ein Passwort“ → fügt sofort ein vom LLM erzeugtes Musterpasswort ein - Sucht man auf GitHub nach Mustern wie
K7#mP9,k9#vL, findet man tatsächlich viele entsprechende Repositories
Fazit
- LLMs können gut Passwörter erzeugen, die „stark aussehen“, aber echte Sicherheit hängt nicht vom Aussehen ab, sondern von tatsächlicher Entropie und Zufälligkeit.
- Wegen ihres vorhersagebasierten Designs sind LLMs strukturell ungeeignet für die Passworterzeugung. Besonders wenn AI-Coding-Tools solche Passwörter in Code einbauen, können sich Sicherheitslücken unauffällig in automatisierten Entwicklungsprozessen verbreiten.
Noch keine Kommentare.