- Seit Anfang dieser Woche hat Anthropic die Nutzungslimits für Claude Code-Nutzer ohne Vorwarnung verschärft
- Vor allem unter Power-Usern des Max-Plans für 200 US-Dollar pro Monat nahm der Unmut stark zu; beim Erreichen des Limits erscheint lediglich die Meldung „Claude usage limit reached“, ohne konkrete Erläuterung
- Da die Limits ohne vorherige Information oder Änderungsankündigung gesenkt wurden, hielten manche Nutzer dies irrtümlich für ein Downgrade ihres Abos oder einen Fehler beim Usage-Tracking
- Anthropic erklärte offiziell lediglich ohne nähere Details, dass „einige Nutzer langsame Antworten erleben“, nannte aber weder einen genauen Zeitplan für die Behebung noch die Ursache
- Auch API-Überlastung und Netzwerkfehler traten begleitend auf, was den Unmut weiter verstärkte; Nutzer fordern nun mehr Vertrauen durch Transparenz sowie klarere Limits und bessere Kommunikation
Plötzliche Verschärfung der Nutzungslimits und Verwirrung
- Seit vergangenem Montag wurden die Claude-Code-Nutzungslimits plötzlich verschärft, wodurch viele Nutzer unerwartet an Beschränkungen stießen
- Es wird nur die Meldung „Claude usage limit reached“ angezeigt sowie der Hinweis, dass die Sperre nach einer bestimmten Zeitspanne (einigen Stunden) aufgehoben werde; konkrete Angaben zu den geänderten Limits fehlen
- Besonders unter teuren Abonnenten wie im 200-Dollar-Max-Plan wuchsen Misstrauen und Verwirrung durch vermutete Fehler beim Usage-Tracking und das Missverständnis eines Plan-Downgrades
- Auf GitHub-Issue-Seiten häuften sich Beschwerden über die Intransparenz der Verbrauchsberechnung, etwa: „Ich habe in 30 Minuten nur ein paar Anfragen gestellt und trotzdem das Limit von 900 Nachrichten überschritten.“
- Ein Nutzer beklagte, mit diesem Limit sei Projektarbeit unmöglich, und fügte hinzu, dass „Gemini oder Kimi ebenfalls kein Ersatz“ seien
Offizielle Stellungnahme und Netzwerkprobleme
- Anthropic erklärte lediglich, dass „einige Nutzer langsame Antworten erleben“, vermied aber weitere Erläuterungen
- Im gleichen Zeitraum traten API-Overload-Fehler und Netzwerkausfälle gleichzeitig an vielen Stellen auf, während die offizielle Statusseite weiterhin 100 % Verfügbarkeit anzeigte — ein offensichtlicher Widerspruch
- Zusätzlich verstärkte eine inoffizielle und variable Struktur, bei der Limits und verfügbare Kapazität je nach Nachfrage schwanken, die Verwirrung
Verwirrung durch komplexe Tarifstruktur und Usage-Politik
- Anthropics Tarifmodell bietet nur abgestufte Beschränkungen und Hinweise, aber keine klare Garantie für ein bestimmtes Nutzungsvolumen; bei Free/Pro/Max wird statt eines eindeutigen Maximums lediglich darauf verwiesen, dass es von der Nachfrage abhängt
- Max-Tarif: offiziell 20-mal mehr Nutzung als Pro, Pro wiederum 5-mal mehr als Free — absolute Grenzwerte werden jedoch nicht veröffentlicht
- Auch beim kostenlosen Limit wird ausdrücklich darauf hingewiesen, dass es „je nach Nachfrage variiert“, womit keine absolute Nutzungsgarantie besteht
- Nutzer konnten vor dieser jüngsten Verschärfung den Dienst teils in einem Umfang verwenden, der API-Aufrufen im Wert von mehr als 1.000 US-Dollar pro Tag entsprach, weshalb sie den Max-Plan bereits als instabiles und langfristig schwer tragfähiges Modell betrachteten
- Daher überraschte die Verschärfung an sich viele nicht; als größtes Problem wird jedoch der Mangel an Transparenz genannt
- Eine typische Rückmeldung lautete: „Kommuniziert transparent. Fehlende Kommunikation zerstört Vertrauen.“
Das Kernproblem: Kommunikation und Vertrauen
- Einige Nutzer zeigen zwar Verständnis dafür, dass die Limits des Max-Plans langfristig womöglich nicht tragfähig sind, betonen aber die Forderung: „Kommuniziert einfach transparent.“
- Änderungen ohne Vorankündigung und unklare Hinweise führen zu Vertrauensverlust bei den Nutzern
- Klare Informationen zu Limits, frühzeitige Kommunikation und schnelle Reaktion auf Probleme sind entscheidend, um den Dienst stabil zu betreiben und das Vertrauen der Kunden zu erhalten
2 Kommentare
Da es sich um ein Produkt an der vordersten Front des agentischen Codings handelt, scheint sich ziemlich viel Traffic darauf zu konzentrieren..
Hacker-News-Kommentare
Ein Nutzer, der anonym bleiben wollte, erwähnte, dass er sein Projekt nach Einführung der Nutzungsbeschränkungen nicht mehr weiterführen konnte. Es fühle sich an, als habe er das Vibe-Limit erreicht und jetzt sei der Zeitpunkt gekommen, wieder selbst zu denken
Claude 4.0 ist in Bezug auf rohe Intelligenz nicht wirklich klüger als andere führende Modelle. Es ist nur für die richtige Tool-Nutzung beim Coden sehr gut feinabgestimmt. Wenn andere Modelle bald aufholen, wird es schwer, solche strengen Limits aufrechtzuerhalten. Google ist dabei in einer günstigen Position, weil sie selbst das Silizium bereitstellen und optimieren und dadurch beim absoluten Cashflow im Vorteil sind. Interessanterweise scheint hier in den Kommentaren kaum jemand die Compute-Scaling-Gesetze zu verstehen. Viele haben das Uber-Modell im Kopf, bei dem ein System irgendwann die Preise erhöhen muss, aber AI ist keine menschliche Arbeit. Mit der Zeit werden die Rechenkosten sinken. Kurzfristig Verluste in Kauf zu nehmen und darauf zu wetten, ist eher die Strategie mit der höchsten Erfolgswahrscheinlichkeit, und ich halte das nicht für dumm. Viele warten nur darauf, dass diese Blase platzt, um dann schlau sagen zu können: „Ich hab’s doch vorhergesagt“ – aber langfristig ist diese Richtung am Ende wohl die richtige
Ich habe Claude Code mit dem 20-$/Monat-Basisplan für ein Side-Project ausprobiert. Ich habe nicht einmal meine gesamte Arbeitszeit darauf verwendet, und trotzdem waren die Aufrufe mehr als ausreichend. Ich dachte, ich würde das 20-$-Limit schnell erreichen, habe es aber am Ende nicht geschafft. Ehrlich gesagt musste ich vieles, was die AI nicht konnte, selbst korrigieren oder von Hand coden, aber der Token-Verbrauch wirkte wirklich großzügig. Im Vergleich zu API-Preisen fühlte es sich an, als würde ich täglich Token im Wert von 10 bis 20 $ verbrauchen. Wahrscheinlich wurden die Limits anfangs extrem großzügig gesetzt, um Nutzer zu gewinnen, und jetzt zieht man sie an, weil die Kapazität nicht mehr reicht. Wie im Artikel erwähnt: Ich kann mir kaum vorstellen, wie viel man coden muss, um die Grenze des 200-$/Monat-Plans zu überschreiten
Wenn Apple ein M4 MacBook verkaufen und dann ohne jede Warnung die Leistung auf M1-Niveau senken würde, gäbe es einen riesigen Aufschrei in Tech-Medien und bei Verbraucherschützern. Aber wenn AI-Firmen einem für 100 Dollar Nutzungsrechte verkaufen und dann stillschweigend die Leistung reduzieren, bleibt es ruhig. Ich frage mich, wie so etwas möglich ist
Vermutlich wird das Ganze gerade noch mit Verlust betrieben, daher finde ich nicht, dass schon der richtige Zeitpunkt zum Ärgern ist. Bei Cursor ist die Preispolitik ähnlich intransparent. Ich zahle für den Max-Plan, aber laut API-Report habe ich bereits fast 1000 $ an Nutzung verursacht. Ich weiß nicht einmal, wie viel Kontingent noch übrig ist, und auch die Preisangaben aus der API erscheinen mir nicht schlüssig
Ich würde gern Videos von echten Workflows sehen, in denen Leute im Alltag tatsächlich an diese Limits stoßen. Ich selbst nutze sonnet hauptsächlich fürs Coden und habe beim 20-$/Monat-Plan nicht einmal das Basislimit erreicht. Ich verwende es für Spezifikationen, Dokumentation, Wiederholungsaufgaben auf Basis bekannter Beispiele oder für den wiederholten Aufbau bestimmter Services. Wenn es nicht um das Umschreiben der gesamten Codebase geht, ist es bei kleineren Änderungen oft schneller, selbst Hand anzulegen, statt das Problem erst auf Englisch zu erklären und dann einen großen AI-Zyklus anzustoßen
Vor ein paar Tagen habe ich in zwei Projekten große Refactorings gemacht und parallel noch Designarbeit für zwei weitere Projekte erledigt. Als ich meine Gemini-API-Nutzung geprüft habe, hatte ich an einem Tag bereits 200 $ verbraucht. Nutzer können das noch deutlich intensiver fahren. Ich glaube nicht, dass bei einer 200-$/Monat-Flatrate für das Unternehmen viel Marge übrig bleibt. Künftig wird es wohl Systeme geben, die Arbeit unter Kostenaspekten intelligent verteilen. openrouter scheint sich in eine ähnliche Richtung zu bewegen, aber für korrektes Routing wird man eine enorme Menge an Kontextinformationen brauchen
Nach Auftreten der Nutzungslimits gab es die Aussage: „Das Projekt kommt wirklich nicht mehr voran.“ Es wurden auch Gemini, Kimi und andere ausprobiert, aber es habe kein Tool mit einem so umfassenden Funktionsset wie Claude Code gegeben. Das wurde als PMF, also Product-Market Fit, bewertet
Ich habe diese Woche den 200-$/Monat-Plan begonnen und zuvor ohnehin monatlich 300+ $ für API-Tokens ausgegeben. Dabei dachte ich noch: „Wie kann sich das für Anthropic überhaupt rechnen?“ Dann kamen aber ständig API-Overload-Fehler, sodass ich den Plan am Ende gekündigt habe und wieder zu API-Tokens zurückgekehrt bin. Ich weiß nicht, was der Sinn dieser Politik ist, aber ich bin bereit, dafür zu zahlen. Man sollte nicht einfach nur mit „200 $/Monat“ werben, sondern dann auch den Zugang zuverlässig garantieren
Es ist schwer zu sagen, ob die Servicequalität absichtlich gesenkt wurde oder ob die Nachfrage so schnell gestiegen ist, dass man die Limits vorübergehend als Notmaßnahme reduziert hat. Wenn weiter zusätzliche Nachfrage hinzukommt, könnten diese Einschränkungen sogar dauerhaft noch strenger werden. Ich glaube nicht, dass Anthropic gerade ausgerechnet jetzt versucht, die COGS zu optimieren. Es gibt die Chance, den gesamten DevTools-Markt zu erobern, dazu viel Cash und starke Investitionsbereitschaft – in so einer Lage die Produktstärke abzuschwächen, wäre ziemlich kurzsichtig