- Während der Nutzung von Claude Code CLI zur Automatisierung eines privaten Projekts wurde das Konto beim Erstellen der Datei
CLAUDE.md ohne Vorankündigung deaktiviert
- Es wurde eine automatische Iterationsschleife aufgebaut, in der zwei Claude-Instanzen parallel liefen und eine die Fehler der anderen korrigierte
- Vermutlich wurde das Erkennungssystem für „Prompt Injection“ ausgelöst, weil sich in der von Claude erzeugten Datei Sätze in Form von Systembefehlen wiederholten
- Danach wurden zwar Support-Anfragen und ein Einspruch versucht, es kam jedoch keinerlei Antwort, lediglich eine Mitteilung über eine Rückerstattung
- Der Autor weist anhand dieses Falls auf die Probleme hin, die automatisierte Zensur und intransparente Betriebsstrukturen von AI-Services für Nutzer verursachen
Deaktivierung des Kontos
- Der Autor, der monatlich 220 € zahlte und Claude Code CLI nutzte, erhielt bei einem API-Aufruf den Fehler
"This organization has been disabled"
- Dieser Fehler bedeutet, dass das Konto deaktiviert wurde
- Zu diesem Zeitpunkt arbeitete er an der Verbesserung eines automatischen Scaffolding-Tools für ein privates Projekt
- Dabei war Claude so eingerichtet, dass es den Code automatisch erzeugt und überarbeitet; während dieses Prozesses erfolgte die Sperrung
Prozess der Erstellung der Datei CLAUDE.md
- Der Autor bat Claude darum, dass sein Scaffolding-Tool bei der Projekterstellung automatisch eine CLAUDE.md-Datei einbindet
- Diese Datei enthielt Anweisungen zu einem bestimmten eigenen Framework (boreDOM)
- Zwei Claude-Instanzen (A und B) wurden jeweils in
tmux-Sitzungen ausgeführt
- Claude A aktualisierte das Tool, Claude B arbeitete im neuen Projekt
- Wenn Claude B einen Fehler ausgab, wurde dieser an Claude A weitergegeben, damit er behoben wurde; dieser Ablauf wiederholte sich fortlaufend
- Während diese Schleife weiterlief, wurde das Konto deaktiviert
Reaktion von Claude und Systemerkennung
- Während Claude A die Fehler von Claude B korrigierte, trat anormale Ausgabe auf, darunter in GROSSBUCHSTABEN (ALL CAPS) geschriebene Anweisungen
- In der erzeugten Datei
CLAUDE.md waren zahlreiche an Claude B gerichtete Anweisungssätze enthalten
- Der Autor erwähnt, dass dieses Muster vom Sicherheitssystem von Claude möglicherweise als „Prompt Injection“ erkannt worden sein könnte
- Eine offizielle Erklärung für die tatsächliche Ursache der Sperre wurde jedoch nicht bereitgestellt
Support-Anfragen und Rückerstattung
- Der Autor reichte über ein Google-Docs-Formular einen Einspruch ein, erhielt jedoch keinerlei Antwort
- Später schickte er mit Hilfe eines anderen LLM eine E-Mail an den Support, doch auch darauf kam nicht einmal eine automatische Antwort
- Einige Tage später erhielt er von Anthropic lediglich eine Rückerstattungsquittung (credit note)
- Der Autor bezeichnete dies als „einseitige Mitteilung statt eines Gesprächs“
- Mit dem Satz „It’s not just bad support; it’s automated exclusion.“ kritisierte er das System automatisierter Ausgrenzung
Kritik am Betrieb von AI-Services
- Der Autor macht anhand dieses Falls darauf aufmerksam, dass Zensur und Kontoverwaltung bei AI-Services intransparent und einseitig sind
- Wäre dasselbe auf einer anderen Plattform passiert, hätte das Risiko bestanden, den Zugang zu wichtigen Diensten wie E-Mails, Fotos oder Dokumenten zu verlieren
- Er sagt, dass sicherheitsorientierte Zensur bei AI Genauigkeit opfert und sich die Betriebsstruktur aus Nutzersicht wie eine „Black Box“ anfühlt
- Anschließend kündigte er an, das Projekt ohne Claude neu aufzusetzen und das Framework boreDOM als LLM-zentriertes JS-Framework neu zu veröffentlichen
- Abschließend stellt er klar, dass Claude zum Zeitpunkt der Sperrung lediglich die Datei
CLAUDE.md wiederholt bearbeitete und es von Anthropic keinen weiteren Kontakt gab
Noch keine Kommentare.