8 Punkte von haebom 20 일 전 | 2 Kommentare | Auf WhatsApp teilen

Hallo. Ich lebe derzeit mit der Freude, Newsletter zu schreiben.
Ich schreibe jeden Tag einen Newsletter, aber wenn ich sie zu oft poste, passt das nicht zu den GN-Richtlinien. Deshalb möchte ich einen Newsletter vorstellen, der besonders viel Traffic ausgelöst hat.

Ich persönlich finde den Inhalt wirklich ziemlich gut und denke, dass es ein Thema ist, über das man einmal nachdenken sollte, daher teile ich es hier.
Natürlich müsst ihr ihn nicht abonnieren, es reicht völlig, wenn ihr ihn einfach mit Interesse lest.

In diesem Beitrag geht es um einen Vorfall, bei dem durch jüngste Anhörungen in den USA offengelegt wurde, wie stark Kennzahlen wie aktive Nutzer und wiederkehrender Umsatz aufgebläht wurden.
Die Hauptakteure waren niemand Geringeres als OpenAI und Anthropic. Deshalb taucht im Silicon Valley nun eine neue Kennzahl auf. Nun ja, investieren muss man ja. Tatsächlich ist es eine Kennzahl, die ich auch während meiner Arbeit bei Gamma erlebt habe. Vereinfacht gesagt geht es um Umsatz/Produktivität pro Person und den Lebenszeitwert über ein Jahr.

2 Kommentare

 
cafedead 20 일 전
  • In der AI-Ära ist ARR womöglich kein verlässlicher gemeinsamer Maßstab mehr
  • Die prägenden Kennzahlen der Tech-Branche haben sich je nach Epoche verändert
    • Social-Ära: DAU/MAU
    • SaaS-Ära: ARR/MRR
    • AI-Ära: Es wird die Frage aufgeworfen, ob selbst das bisherige ARR die Realität verzerren kann
  • Ausgangspunkt des Artikels ist eine Unstimmigkeit bei den Zahlen von Anthropic
    • Im Februar 2026 wurde ein ARR von 14 Milliarden US-Dollar hervorgehoben
    • Einen Monat später hieß es in einem bei Gericht eingereichten Dokument: „kumulierte Umsätze von mehr als 5 Milliarden US-Dollar seit der Gründung“
    • Dasselbe Unternehmen, ein ähnlicher Zeitpunkt, aber eine deutlich andere Bedeutung der Zahlen
    • Der Autor deutet das als „ein Signal dafür, dass ARR in der AI-Ära den tatsächlichen Zustand des Geschäfts nicht mehr angemessen beschreibt“
  • Drei Gründe, warum ARR im AI-Bereich ins Wanken gerät
    1. Die SaaS-Annahme von nahezu null Grenzkosten bricht weg
      • Bei AI entstehen für jeden Inference-Aufruf tatsächlich GPU-/Cloud-Kosten
      • Je mehr genutzt wird, desto stärker steigen auch die Kosten
    2. Die Kosten pro Kunde unterscheiden sich massiv
      • Bei gleichem Preis ist ein Kunde kostengünstig, ein anderer sehr teuer
      • Betrachtet man nur ARR, wirken beide wie derselbe „gute Umsatz“, obwohl die tatsächliche Profitabilität stark abweicht
    3. Die Stabilität wiederkehrender Umsätze ist schwächer
      • Die Wechselkosten sind niedriger als bei SaaS, daher ist ein Umstieg auf andere Modelle/Services leichter
      • Schon das „Recurring“ selbst ist weniger belastbar als früher
  • Deshalb kann ARR bei AI-Unternehmen zwar „Wachstum“ zeigen, aber Profitabilität, Beständigkeit und Geschäftsqualität nur unzureichend abbilden
    • Die Struktur ähnelt der früheren Situation bei DAU/MAU: Diese Kennzahlen zeigten das Interesse der Nutzer, aber nicht die wirtschaftliche Gesundheit des Geschäfts
  • Auch die Fälle Anthropic und OpenAI sollen dieses Problem zeigen
    • Zwischen dem kommunizierten ARR und den tatsächlichen kumulierten Umsätzen, Halbjahresergebnissen und der Geschwindigkeit des Cash-Burns gibt es Unterschiede
    • Wenn also eine „annualisierte“ Zahl so gelesen wird, als entspreche sie der tatsächlichen Jahresleistung, kann das zu Missverständnissen führen
  • Vom Autor vorgeschlagene Kandidaten für Kennzahlen der nächsten Generation in der AI-Ära
    1. Produktivität pro ausgegebenem Dollar (Productivity per Dollar Spent)
      • Nicht einfach nur ARR/Mitarbeiterzahl
      • Erst ein Blick auf etwas wie ARR / (Personalkosten + AI-Kosten) zeigt die tatsächliche Effizienz
    2. Wert im ersten Jahr (First Year Value)
      • Statt wie bei LTV eine ferne Zukunft anzunehmen
      • lieber betrachten, ob der Kunde innerhalb der ersten 12 Monate genug Wert erhält, um zu verlängern
    3. Kennzahlen mit Fokus auf Unit Economics, etwa Bruttomarge pro Token
      • Wichtiger als die Frage, wie viel verarbeitet wurde,
      • ist, wie profitabel es verarbeitet wurde
  • Kernaussage
    • In der AI-Ära sollte man eher auf die Struktur der Bruttomarge, die Profitabilität je Kunde und den im ersten Jahr verbleibenden Wert schauen als auf die reine Umsatzgröße
    • Es geht darum, nicht die Größe der Zahlen zu lesen, sondern ihre Struktur
  • Es gibt auch ein praktisches Problem
    • Um solche Kennzahlen der dritten Generation sauber zu erfassen,
    • müssen Billing, Infrastrukturkosten und Finanzsysteme miteinander verbunden sein
    • die meisten AI-Unternehmen verfügen aber noch nicht über eine entsprechend ausgereifte Messinfrastruktur

Kurz gesagt
AI-Geschäfte lassen sich nicht mehr so einfach wie SaaS mit ARR allein erklären; künftig werden Kennzahlen wichtiger, die nicht nur zeigen, „wie viel verkauft wurde“, sondern auch „wie viel übrig bleibt und wie nachhaltig es ist“.

 
haebom 20 일 전

Das haben Sie wirklich sehr gut zusammengefasst. Vielen Dank.