1 Punkte von GN⁺ 2026-01-23 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Während der Nutzung von Claude Code CLI zur Automatisierung eines privaten Projekts wurde das Konto beim Erstellen der Datei CLAUDE.md ohne Vorankündigung deaktiviert
  • Es wurde eine automatische Iterationsschleife aufgebaut, in der zwei Claude-Instanzen parallel liefen und eine die Fehler der anderen korrigierte
  • Vermutlich wurde das Erkennungssystem für „Prompt Injection“ ausgelöst, weil sich in der von Claude erzeugten Datei Sätze in Form von Systembefehlen wiederholten
  • Danach wurden zwar Support-Anfragen und ein Einspruch versucht, es kam jedoch keinerlei Antwort, lediglich eine Mitteilung über eine Rückerstattung
  • Der Autor weist anhand dieses Falls auf die Probleme hin, die automatisierte Zensur und intransparente Betriebsstrukturen von AI-Services für Nutzer verursachen

Deaktivierung des Kontos

  • Der Autor, der monatlich 220 € zahlte und Claude Code CLI nutzte, erhielt bei einem API-Aufruf den Fehler "This organization has been disabled"
    • Dieser Fehler bedeutet, dass das Konto deaktiviert wurde
  • Zu diesem Zeitpunkt arbeitete er an der Verbesserung eines automatischen Scaffolding-Tools für ein privates Projekt
  • Dabei war Claude so eingerichtet, dass es den Code automatisch erzeugt und überarbeitet; während dieses Prozesses erfolgte die Sperrung

Prozess der Erstellung der Datei CLAUDE.md

  • Der Autor bat Claude darum, dass sein Scaffolding-Tool bei der Projekterstellung automatisch eine CLAUDE.md-Datei einbindet
    • Diese Datei enthielt Anweisungen zu einem bestimmten eigenen Framework (boreDOM)
  • Zwei Claude-Instanzen (A und B) wurden jeweils in tmux-Sitzungen ausgeführt
    • Claude A aktualisierte das Tool, Claude B arbeitete im neuen Projekt
    • Wenn Claude B einen Fehler ausgab, wurde dieser an Claude A weitergegeben, damit er behoben wurde; dieser Ablauf wiederholte sich fortlaufend
  • Während diese Schleife weiterlief, wurde das Konto deaktiviert

Reaktion von Claude und Systemerkennung

  • Während Claude A die Fehler von Claude B korrigierte, trat anormale Ausgabe auf, darunter in GROSSBUCHSTABEN (ALL CAPS) geschriebene Anweisungen
  • In der erzeugten Datei CLAUDE.md waren zahlreiche an Claude B gerichtete Anweisungssätze enthalten
  • Der Autor erwähnt, dass dieses Muster vom Sicherheitssystem von Claude möglicherweise als „Prompt Injection“ erkannt worden sein könnte
  • Eine offizielle Erklärung für die tatsächliche Ursache der Sperre wurde jedoch nicht bereitgestellt

Support-Anfragen und Rückerstattung

  • Der Autor reichte über ein Google-Docs-Formular einen Einspruch ein, erhielt jedoch keinerlei Antwort
  • Später schickte er mit Hilfe eines anderen LLM eine E-Mail an den Support, doch auch darauf kam nicht einmal eine automatische Antwort
  • Einige Tage später erhielt er von Anthropic lediglich eine Rückerstattungsquittung (credit note)
    • Der Autor bezeichnete dies als „einseitige Mitteilung statt eines Gesprächs“
    • Mit dem Satz „It’s not just bad support; it’s automated exclusion.“ kritisierte er das System automatisierter Ausgrenzung

Kritik am Betrieb von AI-Services

  • Der Autor macht anhand dieses Falls darauf aufmerksam, dass Zensur und Kontoverwaltung bei AI-Services intransparent und einseitig sind
  • Wäre dasselbe auf einer anderen Plattform passiert, hätte das Risiko bestanden, den Zugang zu wichtigen Diensten wie E-Mails, Fotos oder Dokumenten zu verlieren
  • Er sagt, dass sicherheitsorientierte Zensur bei AI Genauigkeit opfert und sich die Betriebsstruktur aus Nutzersicht wie eine „Black Box“ anfühlt
  • Anschließend kündigte er an, das Projekt ohne Claude neu aufzusetzen und das Framework boreDOM als LLM-zentriertes JS-Framework neu zu veröffentlichen
  • Abschließend stellt er klar, dass Claude zum Zeitpunkt der Sperrung lediglich die Datei CLAUDE.md wiederholt bearbeitete und es von Anthropic keinen weiteren Kontakt gab

Noch keine Kommentare.

Noch keine Kommentare.