1 Punkte von GN⁺ 7 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Mit einer zusätzlichen Investition von Amazon wurde vereinbart, in den kommenden 10 Jahren mehr als 100 Milliarden Dollar für AWS auszugeben – eine Transaktionsstruktur, die Cloud-Infrastruktur und Finanzierung kombiniert
  • Im Gegenzug sichert sich Anthropic neue Computing-Kapazität von bis zu 5 GW für das Training und den Betrieb von Claude; damit ist neben der reinen Barinvestition vor allem das tatsächliche Nutzungsrecht an Infrastruktur ein zentraler Bestandteil
  • Amazons Gesamtinvestition steigt damit auf 13 Milliarden Dollar, und die Struktur ähnelt dem Investment-Deal mit OpenAI, der vor zwei Monaten abgeschlossen wurde
  • Im Zentrum der Vereinbarung stehen Amazons Custom-Chips; zum Umfang gehören bei der Trainium-Reihe die Generationen Trainium2 bis Trainium4 neben Graviton
  • Anthropic hat sich zudem Kapazitäts-Kaufoptionen für künftig erscheinende Chips gesichert; die Ankündigung nährt Spekulationen über eine weitere Finanzierungsrunde und Berichte über eine Bewertung von mehr als 800 Milliarden Dollar

Überblick über den Deal

  • Amazon vereinbart eine zusätzliche Investition von 5 Milliarden Dollar; damit steigt Amazons Gesamtinvestition in Anthropic auf 13 Milliarden Dollar
  • Der Deal umfasst eine AWS-Ausgabenverpflichtung von Anthropic: In den kommenden 10 Jahren sollen mehr als 100 Milliarden Dollar für AWS ausgegeben werden
    • Im Gegenzug sichert sich Anthropic neue Computing-Kapazität von bis zu 5 GW für das Training und den Betrieb von Claude
  • Der Deal ähnelt in seiner Struktur einer weiteren KI-Investition, die Amazon kürzlich abgeschlossen hat
    • Nicht nur eine reine Barinvestition, sondern auch Cloud-Infrastruktur-Services sind Teil der Transaktionsstruktur

Vergleich mit dem OpenAI-Deal

  • Es gibt strukturelle Ähnlichkeiten mit dem Deal, den Amazon vor zwei Monaten mit OpenAI geschlossen hat
    • Amazon beteiligte sich an einer Finanzierungsrunde im Umfang von 110 Milliarden Dollar
    • Davon stellte Amazon 50 Milliarden Dollar bereit
    • In dieser Runde wurde für den ChatGPT-Entwickler eine Pre-Money-Bewertung von 730 Milliarden Dollar angesetzt
  • Auch der OpenAI-Deal umfasste neben direktem Kapital teilweise die Bereitstellung von Infrastruktur

Kerninfrastruktur und Chips

  • Im Zentrum dieses Deals stehen Amazons Custom-Chips
    • Graviton ist eine stromsparende CPU
    • Trainium ist ein KI-Beschleuniger-Chip, der mit Nvidia konkurriert
  • Zum Umfang des Anthropic-Deals gehören Trainium2 bis Trainium4
    • Trainium4 ist derzeit noch nicht verfügbar
    • Der neueste Chip, Trainium3, erscheint im Dezember
  • Anthropic hat sich auch für künftig erscheinende Amazon-Chips Kapazitäts-Kaufoptionen gesichert
    • Wenn neue Chips verfügbar werden, umfasst der Deal das Recht, entsprechende Kapazität zu erwerben

Möglichkeit weiterer Finanzierung

  • Es wird erwähnt, dass diese Ankündigung ein Hinweis auf eine neue Finanzierungsrunde von Anthropic sein könnte
  • Berichten zufolge haben Venture-Capital-Firmen angeboten, weiteres Kapital in Anthropic zu investieren
    • Den Berichten zufolge könnte die Unternehmensbewertung in diesem Deal bei mehr als 800 Milliarden Dollar liegen

1 Kommentare

 
GN⁺ 7 일 전
Hacker-News-Kommentare
  • Wenn man sich die aktuelle Lage ansieht, wirkt es so, als wäre die Rentabilitätsillusion fast vorbei. Ich bezweifle, dass die Einnahmen den Erwartungen der Investoren entsprechen, und auch die IPO-Bemühungen von Anthropic und OpenAI wirken wie ein Versuch, Zeit zu gewinnen. Die echten Kosten von Tokens beginnen sichtbar zu werden, und der Compute-Flaschenhals ist erheblich. Als ich die 7,5-fache Token-Rate von Opus 4.7 gesehen habe, wurde mir das Ausmaß der Belastung klar, und da Open Models viel günstiger sind, dürften die Big 2 umso verwundbarer werden, je kostensensibler Unternehmen werden. Ich frage mich, ob Rechenzentren und Stromversorgung schnell genug ausgebaut werden können oder ob das einfach ein gigantisches All-in ist, um vor allen anderen AGI zu erreichen. Vor allem scheint die Modellleistung zu stagnieren, und bei komplexen Aufgaben habe ich sogar das Gefühl, dass die Produktivität sinkt
    • Ich denke, viele Unternehmen hätten von Anfang an gar nicht an den öffentlichen Kapitalmarkt gehört. Diese Kultur, bei schwachen Quartalszahlen immer wieder Massenentlassungen durchzuführen, um zu signalisieren, dass man das Ausbluten stoppt, wirkt auf mich extrem schädlich und lächerlich. Die Firmen, bei denen ich war, hatten ihre beste Zeit ebenfalls, als sie noch nicht börsennotiert waren, und stießen am Ende oft an wirtschaftliche Grenzen und wurden an größere börsennotierte Konzerne verkauft. Ich glaube, ein alternativer Markt, auf dem nur langfristige Investments möglich sind und Kapital über Jahre nicht abgezogen werden kann, wäre gesünder
    • Aus Sicht der Softwareentwicklung habe ich das Gefühl, dass die heutigen Modelle die Kosten pro Token durchaus rechtfertigen. Diese Entwicklung wirkt auf mich weniger wie ein Warnsignal als vielmehr wie die Entscheidung, das Angebot im Voraus zu sichern, weil Nachfrage erwartet wird. Ich verstehe das ähnlich wie bei Fluggesellschaften, die künftigen Treibstoff vorab einkaufen, oder Apple, das sich DRAM-Kontingente sichert
    • Ich weiß nicht, wie sehr dieser Pessimismus die Realität trifft. Die Fortune-500-Unternehmen sind längst über das Stadium hinaus, in dem sie nur mit Firmen wie Anthropic experimentieren, und arbeiten nun mit Hochdruck daran, wie sie diese Technologien unternehmensweit einführen und die Governance dafür festziehen. Es gab sicher Überhitzung, aber das Wertversprechen wird aus meiner Sicht immer konkreter. Manche AI-Firmen haben womöglich zu hohe Ausgaben versprochen, aber ich denke, Anthropic war vergleichsweise schnell auf dem Weg in Richtung Profitabilität
    • Ich bin nicht völlig anderer Meinung, aber ich habe ein paar Gegenargumente. Erstens finde ich die Behauptung überzeugend, dass Modellanbieter bereits profitabel sind, wenn man nur auf die Kosten des Inference-Token-Service schaut. Die Verluste scheinen in der Struktur zu liegen, nämlich beim Training der nächsten Modellgeneration. Bei Open Models ist der Leistungsabstand noch groß genug, dass ich nicht den Eindruck habe, dass ihr Einsatz in Coding Agents stark zugenommen hätte, zumal Tokens derzeit noch relativ günstig sind und die Kosten von Halluzinationen hoch bleiben. Über die gesamte AI-Ökonomie bin ich mir ebenfalls unsicher, aber der Wert von Unternehmen wie Meta oder Microsoft ist bereits etwas zurückgekommen, und auch Investoren scheinen sich stärker vor Überbewertungen zu hüten. Die Warnsignale sind nicht völlig eindeutig, aber die Unternehmensgewinne wirken weiterhin gesund. Siehe Analyse der Anthropic-Token-Kosten und Economist-Artikel zu Unternehmensgewinnen
    • Ich habe auch das Gefühl, dass diese Richtung stimmt. Tatsächlich scheint es so, als würden Services anfangen, die Nutzungsgrenzen enger zu ziehen. Ich nutze Gemini Pro über den Google-5TB-Plan und auf der IDE-Seite auch GitHub Copilot Pro, aber in letzter Zeit stoße ich bei Gemini viel schneller ans Limit und bekomme Meldungen, dass ich die Pro-Tokens für mehrere Stunden aufgebraucht habe. Früher konnte ich es fast den ganzen Tag verwenden, jetzt bin ich teilweise schon vormittags blockiert. Deshalb überlege ich ernsthaft, noch dieses Jahr einen PC mit großer GPU zu kaufen und auf lokale Ausführung umzusteigen. Nach dem aktuellen Trend wirken die Chancen größer, dass die Kosten stark steigen, statt zu sinken
  • Wenn man 100 Milliarden Dollar ausgeben muss, frage ich mich, ob es noch sinnvoll ist, weiter eine Drittanbieter-Cloud zu nutzen. Egal wie gut die Konditionen von Amazon sind, bei einer solchen Größenordnung will man am Ende wohl doch seinen eigenen Stack besitzen. Gerade in einem so wettbewerbsintensiven Bereich dürften bald die Margen entscheidend werden. Auf mich wirkt es gerade so, als würden die Hyperscaler mit übertrieben rosigen Aussichten so viel Kapital wie möglich einsammeln, und der Höhepunkt dieses Zyklus könnte nicht mehr fern sein oder bereits erreicht sein
    • Das Problem ist, dass die Alternative letztlich darin besteht, selbst Rechenzentren zu bauen. Man braucht womöglich 2 in den USA, 2 in Europa, 2 in Asien, 1 in Afrika und 1 in LATAM, und mehr als die Hälfte davon müsste rechtzeitig fertig werden. Aber schon dieses „rechtzeitig“ ist schwierig. Lokale Genehmigungen, Verhandlungen mit Energieversorgern, politische Faktoren oder militärische Verträge können dazu führen, dass Genehmigungen platzen. Dazu kommen die Beschaffung von CPU, GPU, Speicher und Netzwerkhardware sowie die Tatsache, dass die Lieferzeit für industrielle Stromtransformatoren über 5 Jahre beträgt. Auch Wasseraufbereitungsanlagen lassen sich ohne Genehmigungen nicht umsetzen. Und in so einer Lage werden AWS oder Google einem Kunden, bei dem sie Abwanderung wittern, wohl kaum Vorzugsbedingungen einräumen. AI und LLMs sind an sich schon ein komplexes und fragiles Wettbewerbsumfeld; parallel auch noch Rechenzentren zu bauen, fühlt sich nicht wie Diversifikation an, sondern eher wie ein Todesurteil
    • Für ein Unternehmen ohne jede Erfahrung im Bau von Rechenzentren direkt zu einem Betreiber von Compute im Umfang von 100 Milliarden zu werden, wirkt wie ein jahrzehntelanges Hochrisikoziel
    • Ich denke, solche Zusagen verlagern einen Teil des Risikos auf Infrastrukturanbieter wie Amazon oder Oracle. Selbst wenn Anthropic oder OpenAI ihre Prognosen verfehlen, können die Infrastrukturanbieter diese Assets an andere Kunden verkaufen oder selbst nutzen. Wenn die Nachfrage dagegen größer als erwartet ausfällt, kommt womöglich noch mehr VC-Kapital herein, um Konkurrenten selbst zu höheren Preisen aus dem Feld zu drängen. Wenn man stattdessen selbst baut und die Nachfrage falsch einschätzt, wird der Fehler viel teurer. Für mich ist das letztlich Risikoteilung
    • Ich denke, die Antwort steht schon im Artikel. Der Anthropic-Vertrag umfasst sogar das noch nicht veröffentlichte Trainium4, und wenn danach neue Amazon-Chipgenerationen kommen, hat Anthropic auch Optionen auf deren Kapazität. Das liest sich also nicht nur als Sicherung für den Moment, sondern als vorab gesichertes Bezugsrecht über die gesamte künftige Chip-Roadmap hinweg
    • Ich habe früher bei Facebook mal eine Grafik gesehen, in der das Geld zwischen einigen Top-AI-Firmen im Kreis lief, und das war wirklich schockierend. Es wirkte fast wie Geldkreislauf und kam mir beinahe betrügerisch vor
  • Ich frage mich, was die Erwartungen an AI-Labs eigentlich genau sind. Für mich sehen diese Produkte inzwischen fast commoditisiert aus, und es gibt viele starke Open-Source-Konkurrenten. Am Ende dürfte es immer schwieriger werden, die Prämie auf solche Modelle zu rechtfertigen
    • Ich habe das Gefühl, dass die sogenannte Mythos-Situation, egal ob sie stimmt oder übertrieben ist, letztlich auf das Endgame verweist. Wenn Modelle entstehen, die stark genug sind, um die Welt massiv zu beeinflussen, wird man sich wohl nicht mehr fragen, wie man sie an Verbraucher verkauft, sondern eher, wie man sie nutzt, um selbst die Wirtschaft zu beherrschen, oder ob sie vom Staat verstaatlicht werden. Wenn man eine Maschine hat, die alles automatisieren kann, warum sollte man dann überhaupt Zugänge verkaufen?
    • Ich halte es für sehr wahrscheinlich, dass Open-Source-Modelle in 1–2 Jahren vollständig aufschließen. Die Produkte sind eine Commodity, und die Modelle auch. Im Moment ist der Flaschenhals nur, dass GPU-Kerne für großskalige Inference schwer zu bekommen sind. Am Ende braucht man wohl eine Plattform, die Lock-in erzeugen kann, aber ich sehe nicht, warum die nicht auf Open-Source-Modellen basieren sollte
    • Ich denke, bei den meisten großen Tech-Unternehmen werden Coding Agents inzwischen flächendeckend ausgerollt. Manche erlauben nahezu unbegrenzte Tokens, solange man die Resultate erklären kann. Die Unternehmen bauen diese Tools in ihre Workflows ein und beginnen auch, interne Prozesse toolzentriert zu dokumentieren. Wenn so etwas einmal läuft, wird es schnell in die gesamte Organisation kopiert. Wenn Anthropic 30 Milliarden Dollar Umsatz erreicht hat und das erst der Anfang einer großflächigen Verbreitung von Coding ist, dann lassen sich solche Zahlen nicht einfach ignorieren
    • Ich denke, diese Modelle sind zugleich Commodity und Cyberwaffen. Staaten in militärischer Konkurrenz werden mithilfe besserer AI stärkere Cyber- und Informationsfähigkeiten aufbauen wollen und deshalb vermutlich nicht nur auf ein einziges Labor setzen, sondern mehrere AI-Rüstungsanbieter gegeneinander antreten lassen. So wie die USA früher Waffen an mehrere Länder verkauft haben, könnten künftig China, die USA und Frankreich AI-Cyberfähigkeiten verkaufen. Außerdem werden einzelne Staaten aus Sicherheitsgründen fremden Clouds wohl nie vollständig vertrauen, sodass eigene Rechenzentren nötig werden könnten, um bevorzugte Vendor-Cluster zu betreiben
    • Ich glaube, kein Unternehmen hat einen Burggraben. Für mich hat OpenAI die Führungsposition bereits verloren, und im Moment gewinnt niemand eindeutig. Es wirkt am Ende wie ein Chicken Game, bei dem GPUs verbrannt werden, die ohnehin nicht lange durchhalten. Siehe dazu auch dieses Vergleichsbild
  • Es fühlt sich an, als würde das Kapitalbeschaffen schneller voranschreiten, bevor lokale Consumer-Modelle in ein paar Jahren gut genug werden. Die Nachfrage explodiert aktuell, aber sobald sich On-Device-Inference etabliert, könnte sie irgendwann abrupt einbrechen, weshalb das Ganze wie ein Kartenhaus wirkt
    • Ich habe das Gefühl, dass ich diese Zukunft schon teilweise lebe. Wenn man ein brauchbares Ausführungs-Framework mit Kontextverwaltung, unix-basiertem Gedächtnis sowie Websuche und Zugriffsmöglichkeiten kombiniert, lassen sich lokale Modelle praktisch auf einem ähnlichen Niveau wie Frontier-Modelle nutzen. Teilweise sind sie sogar schneller. Solange AI-Firmen noch mit subventionierten Preisen führen und mehr anbieten, als es real kostet, zahle ich dafür, aber letztlich kann man ihre eigenen Services nutzen, um den Niedergang dieser Firmen selbst zu bootstrappen. Ich unterstütze schon lange lieber das Ausführen meiner Software auf meinem eigenen Computer
    • Ich warte auch auf diesen Zeitpunkt. Vielleicht könnte eine Kombination aus einer Coding-LLM-Engine mit leistungsstarker Custom-Hardware wie taalas und einem Open-Source-Coding-Agent die Lösung sein. Wenn der Preis auf dem Niveau einer High-End-Grafikkarte liegt, könnte sich das über die Zeit problemlos amortisieren. Es sieht für mich aus wie eine Wiederholung des Übergangs von IBM-Mainframes zu PCs
    • Consumer-Modelle sind bereits ziemlich gut, und der eigentliche Flaschenhals bei lokaler Inference ist aus meiner Sicht die Hardware. Kleine Modelle laufen auf fast jedem Gerät, aber sobald man mehr Wissen und größere Kontexte will, steigen die Anforderungen sprunghaft an
  • Ich habe mich gefragt, ob das am Ende nicht eher ein Kreislauf aus Geld und Schulden ist, ähnlich wie bei der Struktur zwischen Nvidia und OpenAI
    • Bei Nvidia und OpenAI wurden tatsächlich Grafikkarten bewegt, und Vendor-Financing ist an sich nichts Ungewöhnliches, eher wie bei einem Autohaus, das Autos zusammen mit Finanzierung verkauft
    • Soweit ich mich erinnere, ist Oracle dort auch eingestiegen und hat später einen Schlag abbekommen
    • Wer bei der Chipentwicklung an die Spitze will, braucht am Ende Skaleneffekte. Deshalb wirkt es für mich nicht wie ein Ponzi, Nachfrage finanziell zu stützen, um diese Größe herzustellen, sondern wie eine rationale Struktur. Anthropic erhält Zugang zu knappen Compute-Ressourcen, und Amazon bekommt Nachfrage und Vor-Ort-Feedback, mit denen sich höhere R&D-Ausgaben und capex rechtfertigen lassen
  • Ich bin kein Wirtschaftsexperte, aber ich habe mich gefragt, wie ein Modell funktionieren kann, bei dem Amazon 5 Milliarden Dollar gibt und dieses Geld später 20-fach zurückbekommt
    • Die 5 Milliarden Dollar sind kein Geschenk, sondern eine Beteiligungsinvestition, kombiniert mit einer Ausgabenzusage. Wenn es sich um eine Zusage über 100 Milliarden Dollar Nutzung in 10 Jahren handelt, könnten die 5 Milliarden innerhalb von 3 Jahren, vielleicht sogar schneller, aufgebraucht sein. Meine Interpretation ist, dass Amazon Nutzungsguthaben gibt und dafür Anteile erhält. Wenn Anthropic erfolgreich ist, ist das ein gutes Geschäft für Amazon. Wenn es scheitert, kann es auf der Investitionsseite ein Verlust sein, aber operativ sind damit trotzdem etwa 5 Milliarden Dollar Umsatz gesichert, dazu noch eine Begründung für den Ausbau. Für Anthropic bedeutet es, mehr Zeit zu gewinnen und länger durchzuhalten, auch wenn die Zahlen kurzfristig noch nicht passen. Am Ende kann es schneller sein, mit Amazons Geld Amazons Kapazität auszubauen, als mit fremdem Geld eigene Kapazität zu errichten
    • Der Kernpunkt ist, dass sofort Compute im großen Maßstab benötigt wird. Amazon hat angekündigt, heute 5 Milliarden Dollar zu investieren und später bis zu 20 Milliarden zusätzlich geben zu können; dazu kommen bereits bestehende 8 Milliarden Dollar Investment. Mit diesem Vertrag soll die Kapazität innerhalb von 3 Monaten spürbar steigen und bis Jahresende insgesamt fast 1 GW erreichen. Details dazu stehen in der Ankündigung von Anthropic
    • Letztlich ist es leicht verständlich, wenn man es als Struktur sieht, bei der man jetzt 5 Milliarden Dollar bekommt und dann ohnehin anfallende Compute-Kosten in Höhe von etwa 10 Milliarden Dollar pro Jahr ausgibt
    • Das ist kein reiner Gewinn von 100 Milliarden Dollar, sondern ein Leistungstausch, bei dem auch Amazon Betriebskosten hat. Anthropic hätte dieses Geld ohnehin für den Betrieb ausgeben müssen; es ist also weniger ein späterer Preisnachlass als vielmehr eine Art Vorauszahlungsrabatt, bei dem man jetzt Cash erhält und später zum Normalpreis zahlt
    • Ich habe es ähnlich verstanden. Die Infrastrukturkosten wären ohnehin angefallen, und Amazon bindet diese Ausgaben gegen 5 Milliarden Dollar faktisch per Vertrag an AWS
  • Am Ende musste ich an den Witz denken, dass Anthropic im Unternehmensmaßstab einfach die 5-Prozent-Cashback-Variante der Prime-Visa-Karte bekommen hat. Irgendwie sind AI-Firmen am Ende vielleicht doch gar nicht so anders als wir
  • Wenn ich mir die aktuelle geopolitische Lage ansehe, erwarte ich, dass die Produktionskapazität für Speicherchips sowie diverse CPUs und GPUs sinken könnte. Einige Nachrichten aus Japan, Korea und Singapur, die ich gesehen habe, haben diese Sorge verstärkt. Falls diese Erwartung zutrifft, dürfte der Bau neuer Rechenzentren sprunghaft teurer werden, was mir Sorgen macht
  • Ich mache mir Sorgen, ob am Ende, wenn dieser Wahnsinn vorbei ist, die Steuerzahler solche Unternehmen retten müssen
    • Das kann nur passieren, wenn wir es zulassen. Am Ende ist die Antwort wohl Wählen