19 Punkte von GN⁺ 2026-03-16 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Die größten Infrastrukturunternehmen im Cloud-Zeitalter wuchsen, indem sie ihre Umsatzmodelle direkt an die zentrale Verbrauchseinheit der Plattform (Compute) koppelten; im KI-Zeitalter verlagert sich diese Einheit nun zu Token
  • Snowflake, Datadog, Cloudflare und andere positionierten sich direkt im Ausführungspfad von Workloads und bauten eine Struktur auf, in der der Umsatz mit steigender Compute-Aktivität automatisch skaliert
  • Docker war eine Schlüsseltechnologie der cloud-nativen Entwicklung, konnte aber das Umsatzmodell nicht mit dem Compute-Verbrauchs-Primitive verknüpfen und verpasste dadurch einen Wert in Milliardenhöhe
  • Im KI-Zeitalter wachsen Unternehmen, die sich wie Cursor (Coding-Agent) direkt im Token-Verbrauchspfad befinden, schnell; Cursor hat zuletzt 2 Milliarden US-Dollar ARR überschritten
  • Es reicht nicht, einfach nur im Token-Pfad zu sein; wie der Bankrott des CDN-Unternehmens Limelight (heute Edgio) zeigt, ist Überleben ohne Differenzierung und Wechselkosten nicht möglich

Das zentrale Muster des Cloud-Zeitalters: Monetarisierung des Verbrauchs-Primitive

  • Das zentrale Primitive des Cloud-Zeitalters war Compute. Storage, Netzwerk und Datenbanken waren ebenfalls wichtig, aber der Motor des Systems waren Compute-Zyklen im Rechenzentrum
  • Die größten Infrastrukturunternehmen „besaßen den Zähler“, indem sie ihren Umsatz direkt an Compute-Aktivität koppelten oder Compute selbst in Rechnung stellten
  • AWS und andere Hyperscaler verkaufen im wörtlichen Sinne Compute-Zeit; je mehr Workloads in die Cloud wanderten, desto stärker stieg ihr Umsatz automatisch
  • Nicht nur Hyperscaler, auch die Infrastrukturanbieter, die den Cloud-Ausbau anführten, folgten demselben Muster

Monetarisierungsmodelle der Cloud-Infrastrukturführer

  • Databricks monetarisiert Job-Compute; jedes Ausführen von Datenpipelines, jedes Modelltraining und jede Workload-Verarbeitung lässt den Umsatz automatisch wachsen
  • Snowflake monetarisiert Query-Compute; neue Queries, Datensätze und Workloads führen ohne zusätzlichen Seat-Verkauf zu mehr Umsatz
  • Datadog monetarisiert die von Compute-Workloads erzeugte Telemetry; jeder neue Microservice, Container oder jede neue Cloud-Instanz bringt zusätzlichen Umsatz
  • Cloudflare monetarisiert die Requests, die von Anwendungen erzeugt werden, die auf Compute laufen
  • MongoDB berechnet über Atlas nutzungsbasiert nach verbrauchtem Storage und Compute
  • Die Details unterscheiden sich, doch das Muster ist konsistent: direkt im Ausführungspfad von Workloads positioniert und mit einem Preismodell versehen, das mit zunehmender Compute-Aktivität automatisch skaliert

Die zentrale Erkenntnis: nicht das nutzungsbasierte Preismodell selbst, sondern die strukturelle Kopplung an die Wachstumseinheit des Ökosystems

  • Der Kern ist nicht einfach „Usage-based Pricing“ — viele Unternehmen wachsen trotz nutzungsbasierter Preise nur langsam
  • Besonders machte diese Firmen, dass ihre eigene Verbrauchseinheit genau dieselbe Einheit war, entlang derer das gesamte Ökosystem skalierte
  • Wenn die Welt mehr Compute nutzt, wachsen diese Unternehmen auch ohne eigenes Zutun — der Umsatz ist strukturell an den Wachstumsvektor der Plattform gekoppelt
  • In der frühen Cloud-Zeit versuchten viele Infrastrukturunternehmen Software noch mit Perpetual-Lizenzen, Laufzeitlizenzen, Wartungsverträgen oder Support-Abos auf Open Source zu monetarisieren
  • In On-Premises-Umgebungen funktionierten diese Modelle, weil Infrastrukturwachstum langsam, vorhersehbar und kontrollierbar war; in der Cloud können Workloads jedoch sofort skalieren und der Compute-Verbrauch um ein Vielfaches steigen, wodurch sich die ökonomischen Grundlagen fundamental veränderten

Docker: das lehrreichste Beispiel

  • Docker war Containerisierung an sich und die Technologie, die cloud-native Entwicklung möglich machte
  • Es wurde von Millionen Entwicklern genutzt und war wohl das wichtigste Entwicklerwerkzeug des Cloud-Zeitalters
  • Doch Docker fand keinen Weg, das Primitive zu monetarisieren, und konnte die breite Entwicklerakzeptanz nicht mit den zugrunde liegenden Compute-Ausgaben verknüpfen, die Container überhaupt erst ermöglichten
  • Kubernetes (von Google als Open Source veröffentlicht) vereinnahmte das Orchestrierungsgeschäft, und alle Hyperscaler monetarisierten Dockers Innovation über gemanagte Container-Services
  • Docker ermöglichte Compute-Ausgaben in Milliardenhöhe, fing davon aber nichts auf (in den letzten Jahren ist es deutlich besser geworden, doch diese Analyse bezieht sich auf die Anfangszeit)
  • Gemeinsamkeit von Unternehmen, die wie Docker starke Adoption erreichten, aber an Modellgrenzen stießen: Sie waren tief im Cloud-Infrastruktur-Stack verankerte, wichtige Tools, konnten aber ihren Umsatz nicht zu einem Derivat des zentralen Verbrauchs-Primitive machen
  • Monetarisiert wurde auf angrenzenden Wegen wie Seats, Supportverträgen oder Consulting — und der Markt honorierte das entsprechend, nämlich gar nicht

Übertragung auf das KI-Zeitalter: Token sind das neue Primitive

  • Wenn Cloud-Infrastruktur auf dem Primitive Compute aufgebaut wurde, dann entsteht KI-Infrastruktur nun auf einem anderen Primitive: Token
  • Jede KI-Workload läuft letztlich auf Token hinaus, die vom Modell erzeugt, verarbeitet und verbraucht werden
    • Prompt → Token, Kontext → Token, Antwort → Token
    • Agenten, die mehrstufige Workflows ausführen, können bei der Bearbeitung von Aufgaben enorme Mengen an Token erzeugen
  • Token sind die atomare Arbeitseinheit moderner KI-Systeme

KI-Unternehmen im Token-Pfad

  • Modellanbieter wie OpenAI und Anthropic sind das Token-Primitive selbst (so wie Hyperscaler das Compute-/Storage-Primitive der Cloud waren) und rechnen nach Input- und Output-Token ab
  • Die heute am schnellsten wachsenden KI-Unternehmen sitzen direkt im Token-Pfad
  • Coding-Agenten sind ein repräsentatives Beispiel; Cursor hat laut Online-Berichten zuletzt 2 Milliarden US-Dollar ARR erreicht
    • Jeder Keystroke, jede Code-Vervollständigung und jede Agent-Aktion triggert Inferenz; das Geschäftsmodell entwickelt sich von einfachem Seat-Pricing zu Seats mit Nutzungsgrenzen
    • Der Umsatz ist strukturell an den Token-Verbrauch gekoppelt
  • Unternehmen im Inference-Geschäft wie Inferact, Baseten, Fireworks und Together verkaufen im Kern das rohe Primitive selbst
  • Der Umsatz von Unternehmen, die der Erzeugung und dem Verbrauch von Token am nächsten sind, skaliert auf natürliche Weise mit der KI-Aktivität
  • Andere Teile des KI-Ökosystems experimentieren mit traditionellen SaaS-Preismodellen (Seat-basiert, Plattform-Abos, Enterprise-Lizenzen auf Open Source)
  • Auch solche Unternehmen können erfolgreich sein, aber wenn die Geschichte ein Anhaltspunkt ist, entstehen die größten Infrastrukturunternehmen dort, wo die zentrale Einheit der Plattformaktivität gemessen und monetarisiert wird

Notwendig, aber nicht hinreichend: die Bedeutung von Differenzierung

  • Im Token-Pfad zu sein ist eine notwendige, aber keine hinreichende Bedingung
  • Die reinen CDN-Anbieter im Cloud-Zeitalter befanden sich technisch gesehen im „Compute-Pfad“, rechneten nach Bandbreite und Requests ab, und der Traffic explodierte
  • Doch Bandbreite erwies sich als Commodity — die Preise fielen unaufhörlich
  • Limelight Networks verzeichnete trotz Rekord-Traffic während des Streaming-Booms 2020–2021 sinkende Umsätze, benannte sich später in Edgio um und ging schließlich bankrott
  • Cloudflare hingegen baute von einem ähnlichen Ausgangspunkt aus auf dem Primitive echte Differenzierung und Wechselkosten auf, indem es Security, Entwicklerwerkzeuge und Edge-Compute darüber schichtete — bei gleichem Startpunkt mit extrem unterschiedlichem Ergebnis

Lehren für KI-Gründer

  • Positioniere dich im Token-Pfad, aber baue darauf etwas differenziertes auf
  • Sei nicht nur ein Rohr, durch das Token fließen, sondern eine Schicht, die Token wertvoller macht
    • bessere Developer Experience (Cursor), spezialisierte vertikale Modelle, Security- und Compliance-Tools, proprietäre Daten-Moats usw.
  • Es gibt auch eine Timing-Dimension: Die Unternehmen, die sich im Cloud-Zeitalter früh als Standard im Compute-Pfad etablierten, schöpften den größten Wert ab
    • Datadog, Snowflake und Cloudflare erreichten alle Skalierung, bevor das Primitive vollständig zur Commodity wurde
  • Das Zeitfenster, in den Token-Pfad einzusteigen, ist jetzt: Die Inferenzkosten fallen schnell (was mehr Token-Verbrauch bedeutet, aber zugleich die Unit Economics pro Einheit komprimiert)
  • Diese Kompression setzt ein, bevor ein Moat aufgebaut ist; daher müssen Eintritt in den Pfad und Aufbau des Moats gleichzeitig erfolgen
  • Wer den Zähler besitzt, dem folgt Wachstum fast von selbst

Update zu SaaS-Marktbewertungen

  • SaaS-Unternehmen werden typischerweise anhand eines Umsatzmultiples bewertet (meist NTM Revenue, also erwarteter Umsatz der nächsten zwölf Monate)
    • Da die meisten Softwareunternehmen nicht profitabel sind oder keinen nennenswerten FCF erzeugen, ist dies nahezu die einzige Kennzahl, mit der sich die Branche insgesamt vergleichen lässt
    • Auch DCF-Modelle sind voller langfristiger Annahmen; das Versprechen von SaaS ist, dass frühes Wachstum später in reife Gewinne mündet
  • Berechnet als Enterprise Value (Marktkapitalisierung + Schulden - Cash) / NTM-Umsatz
  • Gesamtmedian: 3,5x, Median der Top 5: 17,7x, 10-jährige Staatsanleihe: 4,1 %

Bewertungs-Buckets nach Wachstumsrate

  • Hohes Wachstum (NTM-Wachstumsrate >22 %): Median 10,4x
  • Mittleres Wachstum (15 % bis 22 %): Median 6,5x
  • Niedriges Wachstum (<15 %): Median 2,7x
  • Der Grenzwert von 22 % für hohes Wachstum ist etwas willkürlich, dient aber dazu, rund 10 Unternehmen im High-Growth-Bucket zu haben und damit eine statistisch sinnvolle Stichprobengröße zu sichern

EV / NTM Rev / NTM Growth

  • Kennzahl, bei der das EV-/NTM-Umsatzmultiple durch die NTM-Konsens-Wachstumserwartung geteilt wird
  • Beispiel: Ein Unternehmen, das bei 20x NTM-Umsatz und erwarteten 100 % Wachstum gehandelt wird, notiert bei 0,2x
  • Ziel ist zu zeigen, wie relativ günstig oder teuer eine Aktie im Verhältnis zu ihren Wachstumserwartungen ist

EV / NTM FCF

  • Als Linienchart wird der Median von Unternehmen mit FCF-Multiple >0x und <100x dargestellt
  • Die Darstellung soll die Teilmenge von Unternehmen zeigen, für die FCF eine sinnvolle Bewertungskennzahl ist
  • Unternehmen mit negativem NTM FCF werden aus dem Chart ausgeschlossen

Korrelation zwischen Wachstumsrate und Bewertungsmultiple

  • Es wird ein Scatter Plot von EV / NTM-Umsatzmultiple vs. NTM-Umsatzwachstumsrate bereitgestellt
  • Zur Visualisierung der Korrelation zwischen Wachstumsrate und Bewertungsmultiple

Operating Metrics

  • Median NTM-Wachstumsrate: 13 %
  • Median LTM-Wachstumsrate: 15 %
  • Median Gross Margin: 75 %
  • Median Operating Margin: (1 %)
  • Median FCF-Marge: 20 %
  • Median Net Retention: 109 %
  • Median CAC-Payback-Periode: 34 Monate
  • Median S&M-Quote: 35 % des Umsatzes
  • Median R&D-Quote: 23 % des Umsatzes
  • Median G&A-Quote: 15 % des Umsatzes

Comps Output: Rule of 40 und GM Adjusted Payback

  • Die Rule of 40 wird als Umsatzwachstumsrate + FCF-Marge ausgewiesen (sowohl für LTM als auch NTM)
    • FCF = Cashflow aus operativer Tätigkeit - Investitionsausgaben
  • GM Adjusted Payback = (S&M des Vorquartals) / (quartalsweiser Netto-Neu-ARR × Gross Margin) × 12
    • Gibt an, wie viele Monate ein SaaS-Unternehmen benötigt, um den vollständig belasteten CAC auf Basis der Bruttomarge zurückzuverdienen
    • Da die meisten börsennotierten Unternehmen keinen Netto-Neu-ARR melden, wird ein impliziter ARR aus quartalsweisem Subscription-Umsatz × 4 abgeleitet
    • Netto-Neu-ARR = ARR des aktuellen Quartals - ARR des Vorquartals
    • Unternehmen, die keinen Subscription-Umsatz offenlegen, werden von der Analyse ausgeschlossen (als NA gekennzeichnet)

Noch keine Kommentare.

Noch keine Kommentare.