Anthropic verdoppelt die Nutzungsgrenzen von Claude durch Compute-Vertrag mit SpaceX
(anthropic.com)- Anthropic kündigt an, die Nutzungslimits für Claude Code und die Claude API durch eine Partnerschaft mit SpaceX und mehrere kürzlich geschlossene Compute-Verträge zu erweitern
- Das 5-Stunden-Nutzungslimit von Claude Code wird verdoppelt (für Pro-, Max-, Team- und sitzplatzbasierte Enterprise-Pläne), und die Reduzierung der Limits zu Spitzenzeiten für Pro- und Max-Konten entfällt
- Die API rate limits für das Claude-Opus-Modell wurden deutlich erhöht; die zusätzliche Kapazität verbessert direkt die verfügbare Nutzung für Claude-Pro- und Claude-Max-Abonnenten
- Anthropic hat einen Vertrag geschlossen, um die gesamte Compute-Kapazität von SpaceX’ Colossus 1 Data Center zu nutzen, wodurch innerhalb eines Monats Zugriff auf neue Kapazität von über 300 MW und mehr als 220.000 NVIDIA-GPUs möglich wird
- Die Compute-Erweiterung von Anthropic erfolgt zusätzlich zu Verträgen mit Amazon, Google und Broadcom, Microsoft und NVIDIA sowie Fluidstack; berücksichtigt werden dabei auch regionale Infrastruktur, Belastungen durch Stromkosten und Investitionen in lokale Gemeinschaften
Erhöhte Nutzungsgrenzen für Claude
- Anthropic erhöht die Nutzungslimits für Claude Code und die Claude API durch die Partnerschaft mit SpaceX und mehrere kürzlich geschlossene Compute-Verträge
- Alle drei Änderungen gelten ab dem Tag der Ankündigung
- In Pro-, Max-, Team- und sitzplatzbasierten Enterprise-Plänen wird das 5-Stunden-Nutzungslimit von Claude Code verdoppelt
- Für Pro- und Max-Konten entfällt die Reduzierung der Limits zu Spitzenzeiten bei Claude Code
- Auch die API rate limits für das Claude-Opus-Modell wurden deutlich erhöht
Neue Compute-Partnerschaft mit SpaceX
- Anthropic hat einen Vertrag geschlossen, um die gesamte Compute-Kapazität von SpaceX’ Colossus 1 Data Center zu nutzen
- Durch den Vertrag wird innerhalb eines Monats Zugriff auf neue Kapazität von über 300 MW und mehr als 220.000 NVIDIA-GPUs möglich
- Die zusätzliche Kapazität verbessert direkt die verfügbare Nutzung für Claude-Pro- und Claude-Max-Abonnenten
- Dieser Vertrag ergänzt frühere große Ankündigungen zur Compute-Erweiterung von Anthropic
- Vertrag mit Amazon über bis zu 5 GW: einschließlich rund 1 GW neuer Kapazität bis Ende 2026
- 5-GW-Vertrag mit Google und Broadcom: Inbetriebnahme ab 2027 geplant
- Strategische Partnerschaft mit Microsoft und NVIDIA: umfasst Azure-Kapazität im Wert von 30 Milliarden US-Dollar
- Mit Fluidstack: $50 Milliarden Investition in amerikanische KI-Infrastruktur
- Für das Training und den Betrieb von Claude kommen verschiedene KI-Hardwareplattformen zum Einsatz, darunter AWS Trainium, Google TPUs und NVIDIA GPUs
- Anthropic sucht weiterhin nach Möglichkeiten, zusätzliche Kapazität online zu bringen
- Als Teil des SpaceX-Vertrags zeigt Anthropic auch Interesse an einer Zusammenarbeit mit SpaceX zur Entwicklung von orbitaler KI-Compute-Kapazität im Umfang mehrerer GW
Internationale Expansion und regionale Infrastruktur
- Enterprise-Kunden aus stark regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen und Regierung benötigen zunehmend regionale Infrastruktur, um Compliance- und Data-Residency-Anforderungen zu erfüllen
- Entsprechend findet ein Teil der Kapazitätserweiterung von Anthropic international statt
- Die kürzlich angekündigte Zusammenarbeit mit Amazon umfasst zusätzliche Inferenzkapazität in Asien und Europa
- Regionen für zusätzliche Kapazität werden sorgfältig ausgewählt; zusammengearbeitet wird mit Demokratien, die über rechtliche und regulatorische Rahmenbedingungen verfügen, welche Investitionen in großem Maßstab unterstützen können
- Ebenfalls wichtig ist, dass die Lieferketten für Hardware, Networking und Rechenzentrumsanlagen, die für Compute nötig sind, dort sicher sind
Stromkosten und Investitionen in lokale Gemeinschaften
- Anthropic hat kürzlich zugesagt, mögliche Erhöhungen der Strompreise für Verbraucher zu übernehmen, falls diese durch Rechenzentren in den USA entstehen
- Im Rahmen der internationalen Expansion wird geprüft, diese Zusage auf neue Rechtsräume auszuweiten
- Zudem wird daran gearbeitet, gemeinsam mit lokalen Führungspersonen Wege zu finden, um wieder in die Gemeinschaften zu investieren, in denen sich die Einrichtungen befinden
1 Kommentare
Hacker-News-Kommentare
Dagegen bleibt Training weiterhin teuer, sodass Anthropic/OpenAI eher in Richtung Trainingsgeschäft gehen
Modelle werden zu Assets, die man pro Mieteinheit nutzen oder kaufen kann, und Nutzer betreiben sie auf Inference-Hardware, mieten diese oder besitzen sie selbst
Oder man zahlt einen Premiumpreis an einen Anbieter, der das alles übernimmt
Ich frage mich, ob es Blogposts oder Ähnliches gibt, die behandeln, welche Infrastruktur allein für die Inference aktueller Modelle wie Opus verwendet wird
Vermutlich ist das geheim, aber wenn man Modelle direkt über AWS Bedrock nutzen kann, müsste das doch zumindest ein paar Hinweise liefern
Bei Rechenzentren ist die Geschwindigkeit der Betriebsskalierung oft wichtiger als die Kosten, sodass sie manchmal auf dumme Weise betrieben werden
Es gibt Regulierung durch Energieversorger und Dinge wie Ramp Rates, um das Stromnetz nicht zu beschädigen, und es wird erklärt, dass Rechenzentren diese massiv verletzen
Wegen der stark schwankenden Last wird Strom aus Erdgasgeneratoren hinter dem Zähler bezogen, und Wellen, die eigentlich 7 Jahre halten sollten, schaffen wegen der ständigen Start-Stopp-Zyklen nur 10 Monate
https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
Für das Computing gibt es die Standard-Referenzarchitektur von NVIDIA
https://www.nvidia.com/en-us/technologies/enterprise-referen...
Ich habe es mir nicht im Detail angesehen, aber es dürfte Mellanox-Netzwerke zwischen den GPUs geben, umfangreichen Custom Code zum Verteilen von Tensoren auf GPUs und Code zum Verschieben von Aktivierungen zwischen GPU-Knoten
Anthropic hostet seine Modelle innerhalb von AWS Bedrock als Managed Service, und Kunden rufen das LLM wie jede andere API auf
Welche AWS-Infrastruktur diese API-Requests verarbeitet, ist nicht sichtbar
Ein Asset, das für den Geldverbrenner Grok gebaut wurde, wird vor dem IPO in eine ziemlich große Umsatzquelle verwandelt
Außerdem dient sie dazu, die Twitter-Schulden auf die Öffentlichkeit abzuwälzen, also sind die Buchhalter offenbar ziemlich kompetent
Anthropic bekommt das Computing, das es dringend braucht, um weiter zu wachsen, Elon vermietet Computing, das xAI wegen der schwachen Grok-Nachfrage nicht richtig auslasten konnte, und SpaceX kann Umsatz in die Bücher für den IPO schreiben
Der Satz „wir werden Kapazität sorgfältig hinzufügen, indem wir mit Demokratien zusammenarbeiten, die über die Rechts- und Regulierungsrahmen verfügen, um Investitionen in diesem Umfang zu unterstützen“ bedeutet in der Realitätssprache eher „wir priorisieren Profit über alles andere“
Elon ist ein rechtsgerichteter Unterstützer von Trump, und Trump ist auch nicht gerade sehr demokratisch, aber es bedeutet wohl einfach, dass wir das Geld wirklich dringend brauchen
Es wirkt auch wie ein Versuch, vergessen zu machen, dass xAI Geld von undemokratischen Regierungen im Nahen Osten angenommen hat, und wenn sie Anthropic-Modelle verkaufen könnten, würden sie vermutlich auch chinesisches Computing kaufen
Rechenzentren sind schließlich keine Plug-and-Play-Geräte mit sauber geschriebenen Spezifikationen und internationalen Standard-Schnittstellen
Wenn Elon orbitale Rechenzentren bauen will, wird Anthropic seine Modelle dort gern laufen lassen
Ob Elon orbitale Rechenzentren bauen kann, muss man kaum bezweifeln, die Frage ist eher, ob sie wirtschaftlich sinnvoll sind im Vergleich zu bodengebundenen
Entweder es klappt oder eben nicht
Als Teil eines Deals, um Zugang zu bodengebundenen Rechenzentren zu bekommen, wird offensichtlich absurd anmutendes orbitales Computing größer dargestellt, als es ist
Ich kann mir vorstellen, dass so etwas irgendwann existiert, aber wie bei FSD wirkt es in keiner Weise nah an der Realität
Es kostet fast nichts, das jetzt zu sagen, und später kann man dann einfach angeben, das Interesse verloren zu haben
Falls es Kosten gibt, dann höchstens ein wenig Reputation
Es erzeugt zusätzliche Nachfrage im Stromnetz und könnte bei extremen Wetterlagen großflächige Stromausfälle verursachen, was die Anwohner noch stärker gefährdet
https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
Daher kann man auch Anthropic trotz aller Sicherheitsrhetorik auf die Liste der Unternehmen setzen, die Profit über Sicherheit stellen
Selbst der verlinkte Wikipedia-Artikel sagt nur, dass es Feinheiten bei den Genehmigungen geben könnte, aber ich habe nichts gesehen, das die Behauptung stützt, der Strom sei „illegal“
Es stellt keine Chemikalien her und tut so etwas nicht
Man sollte bei solchen Vorwürfen sehr skeptisch sein, und gerade wenn kapitalkräftige Unternehmen beteiligt sind, können schon „plausibel klingende und hartnäckige“ Schadensbehauptungen zu Klagen oder Vergleichsdruck führen
Wenn das stimmt, ist das ein enormes Steuerschlupfloch, und dann überrascht auch der hohe Kapitaleinsatz in Rechenzentren nicht
[0] https://www.datacenterknowledge.com/regulations/how-are-data...
Es bedeutet nur, dass man das Wochenlimit statt in 5 Tagen jetzt in 3 erreicht
In Wochen mit viel Nutzung bin ich oft mehr als 6 Stunden pro Tag konstant dabei
Ich achte allerdings ziemlich strikt darauf, Sitzungen immer unter 200.000 bis 250.000 Tokens zu halten
Ich habe pro Woche etwa 3 bis 5 Sessions
Bei komplexeren Aufgaben ist das 5-Stunden-Fenster schnell aufgebraucht, was frustrierend ist, aber an das Wochenlimit bin ich noch nicht gekommen
Ich vermute, davon gibt es ziemlich viele wie mich
Wenn man wirklich pusht, kann man selbst das Wochenlimit des $200-Max-Tarifs locker an einem Tag aufbrauchen
Ich rechne das im Kopf als Tageswert, also ungefähr 14 % pro Tag, und versuche deshalb am Wochenanfang sparsamer zu sein und später freier zu verbrauchen
Dann verbringe ich die letzten zwei Tage damit zu überlegen, wie ich das angesparte Kontingent noch aufbrauchen soll
Durch das 5-Stunden-Fenster wird das noch schwieriger, und am letzten Tag der Woche versuche ich dann bei jedem wachen 5-Stunden-Fenster diese 10 % unterzubringen, was ich wirklich hasse
Ich will zu meinen produktivsten Zeiten arbeiten, nicht nach absurden Zeitfenstern
Ich will nicht denken müssen: „Ich werde Claude wohl am meisten um 11 Uhr vormittags brauchen, also sollte ich Haiku um 7:30 eine dumme Nachricht schicken, damit das 5-Stunden-Fenster startet und ich um 12:30 wieder wechseln kann“
Daher begrüße ich diese Änderung zwar, aber sie lindert nur ein Problem, das sie zu 100 % selbst geschaffen haben, und tut dann so, als würden sie den Nutzern damit einen Gefallen tun
Ich verstehe die Absicht, die Nutzung zu Spitzenzeiten zu senken, aber ich mag es trotzdem nicht
Am Ende wirkt es so, als hätte Elon xAI aufgegeben und würde jetzt lieber Computing verkaufen
Grok 4.1 Fast war der billigste Weg, auf X zu recherchieren, sogar billiger als die X API, und verschwand am 15. Mai
https://docs.x.ai/developers/models
Vielleicht räumen sie Computing frei, um es zu verkaufen
Aber Open-Source-Modelle wie Gemma und Qwen werden so schnell besser, dass selbst Anthropic langfristig echte Risiken für den Wert seiner Modelle und Tools sieht
Wenn ich Anthropic oder xAI wäre, würde ich im Grunde überall Umsatz generieren, wo es geht, und sehen, was am Ende überlebt
Bei so viel Volatilität bringt es nichts, auf Monopolherrschaft zu setzen
Vielleicht ist es einfach verschwendete GPU-Zeit, aber es könnte auch sein, dass Anthropic ein Angebot gemacht hat, das man schwer ablehnen konnte
Reine Spekulation, aber wenn es ein Angebot war, das Elon nicht ablehnen konnte, dann vielleicht, weil Anthropic einen Teil seiner Trainingsdaten oder Technologie zur Verfügung stellt
xAI ist schwer als ernsthaftes Forschungslabor zu sehen
Sie bekommen Einblicke darin, wie Claude intern funktioniert, und außerdem einen riesigen Strom an Claude-Nutzungsdaten
All das dürfte in die zukünftige Grok-Entwicklung einfließen
Ich hatte ein paar Tage lang Claude Code ausprobiert und stieß ständig an Limits, also wollte ich auf Max upgraden, doch im Upgrade-Flow wurde eine Identitätsprüfung über Persona verlangt
Ich dachte mir okay und wollte das Upgrade abbrechen, aber dann wurde mir auch der gesamte Claude-Code-Zugang meines bestehenden Tarifs gesperrt und ließ sich nicht wieder freischalten, solange ich die Identitätsprüfung nicht abschließe
Das werde ich auf keinen Fall tun, und es war wirklich eine schlechte Erfahrung
Immerhin habe ich dadurch gelernt, dass Deepseek viel billiger ist und für Reverse-Engineering-Arbeiten ein ähnliches Niveau hat
Das sind gute Nachrichten, aber ich komme nicht zurück
Anthropic hat in zu kurzer Zeit zu viele Fehler gemacht und mich verloren
Opus wurde für mich durch GPT 5.5, DeepSeek, Kimi und Qwen ersetzt, und alle laufen in meinem einzelnen Harness, sodass ich Modelle leicht wechseln kann
Wenn eines davon sich ähnlich verhält, wechsle ich sofort wieder