1 Punkte von GN⁺ 1 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Anthropic kündigt an, die Nutzungslimits für Claude Code und die Claude API durch eine Partnerschaft mit SpaceX und mehrere kürzlich geschlossene Compute-Verträge zu erweitern
  • Das 5-Stunden-Nutzungslimit von Claude Code wird verdoppelt (für Pro-, Max-, Team- und sitzplatzbasierte Enterprise-Pläne), und die Reduzierung der Limits zu Spitzenzeiten für Pro- und Max-Konten entfällt
  • Die API rate limits für das Claude-Opus-Modell wurden deutlich erhöht; die zusätzliche Kapazität verbessert direkt die verfügbare Nutzung für Claude-Pro- und Claude-Max-Abonnenten
  • Anthropic hat einen Vertrag geschlossen, um die gesamte Compute-Kapazität von SpaceX’ Colossus 1 Data Center zu nutzen, wodurch innerhalb eines Monats Zugriff auf neue Kapazität von über 300 MW und mehr als 220.000 NVIDIA-GPUs möglich wird
  • Die Compute-Erweiterung von Anthropic erfolgt zusätzlich zu Verträgen mit Amazon, Google und Broadcom, Microsoft und NVIDIA sowie Fluidstack; berücksichtigt werden dabei auch regionale Infrastruktur, Belastungen durch Stromkosten und Investitionen in lokale Gemeinschaften

Erhöhte Nutzungsgrenzen für Claude

  • Anthropic erhöht die Nutzungslimits für Claude Code und die Claude API durch die Partnerschaft mit SpaceX und mehrere kürzlich geschlossene Compute-Verträge
  • Alle drei Änderungen gelten ab dem Tag der Ankündigung
  • In Pro-, Max-, Team- und sitzplatzbasierten Enterprise-Plänen wird das 5-Stunden-Nutzungslimit von Claude Code verdoppelt
  • Für Pro- und Max-Konten entfällt die Reduzierung der Limits zu Spitzenzeiten bei Claude Code
  • Auch die API rate limits für das Claude-Opus-Modell wurden deutlich erhöht

Neue Compute-Partnerschaft mit SpaceX

  • Anthropic hat einen Vertrag geschlossen, um die gesamte Compute-Kapazität von SpaceX’ Colossus 1 Data Center zu nutzen
  • Durch den Vertrag wird innerhalb eines Monats Zugriff auf neue Kapazität von über 300 MW und mehr als 220.000 NVIDIA-GPUs möglich
  • Die zusätzliche Kapazität verbessert direkt die verfügbare Nutzung für Claude-Pro- und Claude-Max-Abonnenten
  • Dieser Vertrag ergänzt frühere große Ankündigungen zur Compute-Erweiterung von Anthropic
  • Für das Training und den Betrieb von Claude kommen verschiedene KI-Hardwareplattformen zum Einsatz, darunter AWS Trainium, Google TPUs und NVIDIA GPUs
  • Anthropic sucht weiterhin nach Möglichkeiten, zusätzliche Kapazität online zu bringen
  • Als Teil des SpaceX-Vertrags zeigt Anthropic auch Interesse an einer Zusammenarbeit mit SpaceX zur Entwicklung von orbitaler KI-Compute-Kapazität im Umfang mehrerer GW

Internationale Expansion und regionale Infrastruktur

  • Enterprise-Kunden aus stark regulierten Branchen wie Finanzdienstleistungen, Gesundheitswesen und Regierung benötigen zunehmend regionale Infrastruktur, um Compliance- und Data-Residency-Anforderungen zu erfüllen
  • Entsprechend findet ein Teil der Kapazitätserweiterung von Anthropic international statt
  • Die kürzlich angekündigte Zusammenarbeit mit Amazon umfasst zusätzliche Inferenzkapazität in Asien und Europa
  • Regionen für zusätzliche Kapazität werden sorgfältig ausgewählt; zusammengearbeitet wird mit Demokratien, die über rechtliche und regulatorische Rahmenbedingungen verfügen, welche Investitionen in großem Maßstab unterstützen können
  • Ebenfalls wichtig ist, dass die Lieferketten für Hardware, Networking und Rechenzentrumsanlagen, die für Compute nötig sind, dort sicher sind

Stromkosten und Investitionen in lokale Gemeinschaften

  • Anthropic hat kürzlich zugesagt, mögliche Erhöhungen der Strompreise für Verbraucher zu übernehmen, falls diese durch Rechenzentren in den USA entstehen
  • Im Rahmen der internationalen Expansion wird geprüft, diese Zusage auf neue Rechtsräume auszuweiten
  • Zudem wird daran gearbeitet, gemeinsam mit lokalen Führungspersonen Wege zu finden, um wieder in die Gemeinschaften zu investieren, in denen sich die Einrichtungen befinden

1 Kommentare

 
GN⁺ 1 시간 전
Hacker-News-Kommentare
  • So dürfte sich die AI-Ökonomie entwickeln: Inference wird billiger, und mit spezialisierten Beschleunigern am Markt beginnt der Preiswettbewerb
    Dagegen bleibt Training weiterhin teuer, sodass Anthropic/OpenAI eher in Richtung Trainingsgeschäft gehen
    Modelle werden zu Assets, die man pro Mieteinheit nutzen oder kaufen kann, und Nutzer betreiben sie auf Inference-Hardware, mieten diese oder besitzen sie selbst
    Oder man zahlt einen Premiumpreis an einen Anbieter, der das alles übernimmt
  • Das Ausmaß von 300 Megawatt neuer Kapazität und mehr als 220.000 NVIDIA-GPUs ist wirklich absurd groß
    Ich frage mich, ob es Blogposts oder Ähnliches gibt, die behandeln, welche Infrastruktur allein für die Inference aktueller Modelle wie Opus verwendet wird
    Vermutlich ist das geheim, aber wenn man Modelle direkt über AWS Bedrock nutzen kann, müsste das doch zumindest ein paar Hinweise liefern
    • Vermutlich war die Computing-Infrastruktur gemeint, aber auch die Strominfrastruktur ist interessant
      Bei Rechenzentren ist die Geschwindigkeit der Betriebsskalierung oft wichtiger als die Kosten, sodass sie manchmal auf dumme Weise betrieben werden
      Es gibt Regulierung durch Energieversorger und Dinge wie Ramp Rates, um das Stromnetz nicht zu beschädigen, und es wird erklärt, dass Rechenzentren diese massiv verletzen
      Wegen der stark schwankenden Last wird Strom aus Erdgasgeneratoren hinter dem Zähler bezogen, und Wellen, die eigentlich 7 Jahre halten sollten, schaffen wegen der ständigen Start-Stopp-Zyklen nur 10 Monate
      https://www.volts.wtf/p/doing-data-centers-the-not-dumb-way
      Für das Computing gibt es die Standard-Referenzarchitektur von NVIDIA
      https://www.nvidia.com/en-us/technologies/enterprise-referen...
      Ich habe es mir nicht im Detail angesehen, aber es dürfte Mellanox-Netzwerke zwischen den GPUs geben, umfangreichen Custom Code zum Verteilen von Tensoren auf GPUs und Code zum Verschieben von Aktivierungen zwischen GPU-Knoten
    • So funktioniert das nicht ganz
      Anthropic hostet seine Modelle innerhalb von AWS Bedrock als Managed Service, und Kunden rufen das LLM wie jede andere API auf
      Welche AWS-Infrastruktur diese API-Requests verarbeitet, ist nicht sichtbar
  • Dass Anthropic das von Elon für Grok gebaute Rechenzentrum für Grok mietet, wirkt wie ein Plot Twist, den man sich nicht ausdenken kann
    • Aus Sicht von SpaceX ist das ziemlich clever
      Ein Asset, das für den Geldverbrenner Grok gebaut wurde, wird vor dem IPO in eine ziemlich große Umsatzquelle verwandelt
    • Diese Fusion wirkte ziemlich offensichtlich wie ein Weg, xAI stillschweigend abzuwickeln und gleichzeitig die Investoren zufriedenzustellen
      Außerdem dient sie dazu, die Twitter-Schulden auf die Öffentlichkeit abzuwälzen, also sind die Buchhalter offenbar ziemlich kompetent
    • Ein Twist, der für beide Seiten Sinn ergibt
      Anthropic bekommt das Computing, das es dringend braucht, um weiter zu wachsen, Elon vermietet Computing, das xAI wegen der schwachen Grok-Nachfrage nicht richtig auslasten konnte, und SpaceX kann Umsatz in die Bücher für den IPO schreiben
      Der Satz „wir werden Kapazität sorgfältig hinzufügen, indem wir mit Demokratien zusammenarbeiten, die über die Rechts- und Regulierungsrahmen verfügen, um Investitionen in diesem Umfang zu unterstützen“ bedeutet in der Realitätssprache eher „wir priorisieren Profit über alles andere“
      Elon ist ein rechtsgerichteter Unterstützer von Trump, und Trump ist auch nicht gerade sehr demokratisch, aber es bedeutet wohl einfach, dass wir das Geld wirklich dringend brauchen
      Es wirkt auch wie ein Versuch, vergessen zu machen, dass xAI Geld von undemokratischen Regierungen im Nahen Osten angenommen hat, und wenn sie Anthropic-Modelle verkaufen könnten, würden sie vermutlich auch chinesisches Computing kaufen
  • Der Teil mit innerhalb eines Monats ist der Punkt, an dem mein Gehirn aussetzt
    Rechenzentren sind schließlich keine Plug-and-Play-Geräte mit sauber geschriebenen Spezifikationen und internationalen Standard-Schnittstellen
  • Wenn da steht: „Als Teil dieser Vereinbarung bekundete das Unternehmen Interesse, gemeinsam mit SpaceX mehrere Gigawatt an orbitaler AI-Computing-Kapazität zu entwickeln“, dann heißt das entweder, dass Anthropic dieses Weltraumvorhaben ernster nimmt als die allgemeine Öffentlichkeit, oder dass das Veröffentlichen dieses Satzes eine Bedingung war, um an das Computing zu kommen
    • Ich stimme zu 100 % der zweiten Deutung zu, dass das Veröffentlichen dieses Satzes Bedingung war, um das Computing zu bekommen
    • Anthropic braucht jedes verfügbare Computing
      Wenn Elon orbitale Rechenzentren bauen will, wird Anthropic seine Modelle dort gern laufen lassen
      Ob Elon orbitale Rechenzentren bauen kann, muss man kaum bezweifeln, die Frage ist eher, ob sie wirtschaftlich sinnvoll sind im Vergleich zu bodengebundenen
    • Ich glaube nicht, dass Space Computing funktionieren wird, aber zu sagen „wenn ihr es später zu einem guten Preis anbietet, kaufen wir es gern“ ist natürlich möglich
      Entweder es klappt oder eben nicht
    • Das wirkt einfach wie Anbiederung an die Mächtigen
      Als Teil eines Deals, um Zugang zu bodengebundenen Rechenzentren zu bekommen, wird offensichtlich absurd anmutendes orbitales Computing größer dargestellt, als es ist
      Ich kann mir vorstellen, dass so etwas irgendwann existiert, aber wie bei FSD wirkt es in keiner Weise nah an der Realität
      Es kostet fast nichts, das jetzt zu sagen, und später kann man dann einfach angeben, das Interesse verloren zu haben
      Falls es Kosten gibt, dann höchstens ein wenig Reputation
    • Die meisten CEOs großer Tech-Unternehmen haben so etwas schon einmal gesagt
  • Das Colossus-1-Rechenzentrum nutzt illegale Energie, verschmutzt die Luft in armen Gegenden nahe Memphis und könnte sogar Wasser verschmutzen
    Es erzeugt zusätzliche Nachfrage im Stromnetz und könnte bei extremen Wetterlagen großflächige Stromausfälle verursachen, was die Anwohner noch stärker gefährdet
    https://en.wikipedia.org/wiki/Colossus_(supercomputer)#Envir...
    Daher kann man auch Anthropic trotz aller Sicherheitsrhetorik auf die Liste der Unternehmen setzen, die Profit über Sicherheit stellen
    • Das Wort illegal ist hier stark
      Selbst der verlinkte Wikipedia-Artikel sagt nur, dass es Feinheiten bei den Genehmigungen geben könnte, aber ich habe nichts gesehen, das die Behauptung stützt, der Strom sei „illegal“
    • Ich verstehe nicht, wie ein Rechenzentrum Wasser verschmutzen soll
      Es stellt keine Chemikalien her und tut so etwas nicht
    • Nicht jede Anschuldigung in gedruckter Form ist wahr
      Man sollte bei solchen Vorwürfen sehr skeptisch sein, und gerade wenn kapitalkräftige Unternehmen beteiligt sind, können schon „plausibel klingende und hartnäckige“ Schadensbehauptungen zu Klagen oder Vergleichsdruck führen
    • Laut meiner Suche zahlen die meisten Rechenzentren auf den in diesem Rechenzentrum erzielten Umsatz offenbar fast keine bundesstaatlichen Steuern
      Wenn das stimmt, ist das ein enormes Steuerschlupfloch, und dann überrascht auch der hohe Kapitaleinsatz in Rechenzentren nicht
      [0] https://www.datacenterknowledge.com/regulations/how-are-data...
  • Wenn sie nicht auch das Wochenlimit verdoppeln, ist eine Verdopplung des 5-Stunden-Rate-Limits nur Marketing
    Es bedeutet nur, dass man das Wochenlimit statt in 5 Tagen jetzt in 3 erreicht
    • Ich bin noch nie auch nur in die Nähe des Wochenlimits gekommen, aber ans Stundenlimit stoße ich oft
    • Seit dem Upgrade auf den $100-Tarif bin ich in den letzten 5 Monaten, glaube ich, kein einziges Mal an eines der beiden Limits gestoßen
      In Wochen mit viel Nutzung bin ich oft mehr als 6 Stunden pro Tag konstant dabei
      Ich achte allerdings ziemlich strikt darauf, Sitzungen immer unter 200.000 bis 250.000 Tokens zu halten
    • Ich nutze persönlich das normale Claude-Code-Abo und verwende es unter der Woche abends oder am Wochenende für 1 bis 2 Stunden zum Coden, um den Kopf freizubekommen
      Ich habe pro Woche etwa 3 bis 5 Sessions
      Bei komplexeren Aufgaben ist das 5-Stunden-Fenster schnell aufgebraucht, was frustrierend ist, aber an das Wochenlimit bin ich noch nicht gekommen
      Ich vermute, davon gibt es ziemlich viele wie mich
    • Ja, der eigentliche begrenzende Faktor ist das Wochenlimit
      Wenn man wirklich pusht, kann man selbst das Wochenlimit des $200-Max-Tarifs locker an einem Tag aufbrauchen
    • Bei Opus 4.6, das ich immer noch hartnäckig nutze, kann ich in meinem Workflow innerhalb eines 5-Stunden-Fensters etwa 10 % meines Wochenkontingents verbrauchen
      Ich rechne das im Kopf als Tageswert, also ungefähr 14 % pro Tag, und versuche deshalb am Wochenanfang sparsamer zu sein und später freier zu verbrauchen
      Dann verbringe ich die letzten zwei Tage damit zu überlegen, wie ich das angesparte Kontingent noch aufbrauchen soll
      Durch das 5-Stunden-Fenster wird das noch schwieriger, und am letzten Tag der Woche versuche ich dann bei jedem wachen 5-Stunden-Fenster diese 10 % unterzubringen, was ich wirklich hasse
      Ich will zu meinen produktivsten Zeiten arbeiten, nicht nach absurden Zeitfenstern
      Ich will nicht denken müssen: „Ich werde Claude wohl am meisten um 11 Uhr vormittags brauchen, also sollte ich Haiku um 7:30 eine dumme Nachricht schicken, damit das 5-Stunden-Fenster startet und ich um 12:30 wieder wechseln kann“
      Daher begrüße ich diese Änderung zwar, aber sie lindert nur ein Problem, das sie zu 100 % selbst geschaffen haben, und tut dann so, als würden sie den Nutzern damit einen Gefallen tun
      Ich verstehe die Absicht, die Nutzung zu Spitzenzeiten zu senken, aber ich mag es trotzdem nicht
  • Claude Code verdoppelt das 5-Stunden-Rate-Limit für die Tarife Pro, Max, Team und sitzbasierte Enterprise-Pläne, hebt die Reduzierung der Peak-Time-Limits für Pro und Max auf und erhöht auch die API-Rate-Limits des Claude-Opus-Modells deutlich
    Am Ende wirkt es so, als hätte Elon xAI aufgegeben und würde jetzt lieber Computing verkaufen
    • Ich weiß nicht, ob das mit demselben Rechenzentrum zusammenhängt, aber diese Ankündigung kam nur wenige Stunden nachdem mehrere jüngere Grok-Modelle nach einer kurzen Mitteilung eingestellt wurden
      Grok 4.1 Fast war der billigste Weg, auf X zu recherchieren, sogar billiger als die X API, und verschwand am 15. Mai
      https://docs.x.ai/developers/models
      Vielleicht räumen sie Computing frei, um es zu verkaufen
    • Man kann noch nicht sicher sagen, dass Elon xAI aufgegeben hat
      Aber Open-Source-Modelle wie Gemma und Qwen werden so schnell besser, dass selbst Anthropic langfristig echte Risiken für den Wert seiner Modelle und Tools sieht
      Wenn ich Anthropic oder xAI wäre, würde ich im Grunde überall Umsatz generieren, wo es geht, und sehen, was am Ende überlebt
      Bei so viel Volatilität bringt es nichts, auf Monopolherrschaft zu setzen
    • Die Details sind geheim
      Vielleicht ist es einfach verschwendete GPU-Zeit, aber es könnte auch sein, dass Anthropic ein Angebot gemacht hat, das man schwer ablehnen konnte
      Reine Spekulation, aber wenn es ein Angebot war, das Elon nicht ablehnen konnte, dann vielleicht, weil Anthropic einen Teil seiner Trainingsdaten oder Technologie zur Verfügung stellt
    • Ehrlich gesagt könnte das eine gute Idee sein
      xAI ist schwer als ernsthaftes Forschungslabor zu sehen
    • Ich glaube nicht, dass es Aufgabe ist
      Sie bekommen Einblicke darin, wie Claude intern funktioniert, und außerdem einen riesigen Strom an Claude-Nutzungsdaten
      All das dürfte in die zukünftige Grok-Entwicklung einfließen
  • Ich wünschte, ich hätte das vor zwei Tagen gewusst
    Ich hatte ein paar Tage lang Claude Code ausprobiert und stieß ständig an Limits, also wollte ich auf Max upgraden, doch im Upgrade-Flow wurde eine Identitätsprüfung über Persona verlangt
    Ich dachte mir okay und wollte das Upgrade abbrechen, aber dann wurde mir auch der gesamte Claude-Code-Zugang meines bestehenden Tarifs gesperrt und ließ sich nicht wieder freischalten, solange ich die Identitätsprüfung nicht abschließe
    Das werde ich auf keinen Fall tun, und es war wirklich eine schlechte Erfahrung
    Immerhin habe ich dadurch gelernt, dass Deepseek viel billiger ist und für Reverse-Engineering-Arbeiten ein ähnliches Niveau hat
  • Wegen der Limits habe ich das Abo am Ende gekündigt und meinen Workflow mit pi komplett modellagnostisch gemacht
    Das sind gute Nachrichten, aber ich komme nicht zurück
    Anthropic hat in zu kurzer Zeit zu viele Fehler gemacht und mich verloren
    Opus wurde für mich durch GPT 5.5, DeepSeek, Kimi und Qwen ersetzt, und alle laufen in meinem einzelnen Harness, sodass ich Modelle leicht wechseln kann
    Wenn eines davon sich ähnlich verhält, wechsle ich sofort wieder