2 Punkte von GN⁺ 2 시간 전 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Das Kern-Framework von Lean Analytics aus dem Jahr 2013 (Phase bestimmen, Geschäftsmodell verstehen, OMTM, Benchmarks) ist weiterhin gültig, doch im AI-Zeitalter müssen die meisten konkreten Metriken neu definiert werden
  • Bei AI-Produkten hat sich die Time to Value extrem verkürzt, und Nutzer erwarten schon beim ersten Versuch ein hochwertiges Ergebnis und springen bei Misserfolg schnell ab
  • Engagement ist nicht mehr einfach nur hoch oder niedrig, sondern wird zu einer Richtungsmetrik, bei der unterschieden werden muss, wofür Zeit verwendet wird (Mühe/Kampf vs. AI-Arbeit vs. Exploration)
  • Aufgrund der probabilistischen Eigenschaften von AI-Outputs ist Qualität zu einer Metrik erster Ordnung geworden; ohne Eval-Harness ist ein Produkt nichts weiter als ein „Gefühl“
  • Durch die tokenbasierte Struktur variabler Kosten können Power-User sogar Verluste verursachen; daher sind die Verfolgung des Rohertrags pro aktivem Nutzer und leistungsbasierte Preismodelle zentrale Aufgaben

Zusammenfassung der Kernprinzipien von Lean Analytics

  • Lean Analytics basiert auf vier Kernideen: Phase bestimmen, Geschäftsmodell verstehen, OMTM (One Metric That Matters), Benchmarks (lines in the sand)
  • Das 5-Phasen-Modell: Empathy → Stickiness → Virality → Revenue → Scale als Abfolge, die jedes Unternehmen durchläuft
    • Viele Gründer täuschen sich über ihre eigene Phase hinweg und neigen dazu, auch im AI-Zeitalter Hockey-Stick-Wachstum ohne solides Fundament anzustreben
  • Sechs Archetypen von Geschäftsmodellen: SaaS, E-Commerce, zweiseitiger Marktplatz, nutzergenerierte Inhalte/Community, mobile Apps, Medien
    • Diese Einteilung ist veraltet, aber das Prinzip, die Funktionsweise des eigenen Geschäfts zu verstehen, bleibt wichtig
  • OMTM: Unabhängig von Phase und Geschäftsmodell gibt es eine einzelne Metrik, auf die man sich konzentrieren muss
    • Da nicht alles gleichzeitig verbessert werden kann, hilft sie dabei zu bestimmen, woran gearbeitet und wie gemessen werden soll
  • Benchmarks (lines in the sand): Kriterien, die zeigen, ob man die Berechtigung hat, in die nächste Phase überzugehen
    • Bei AI- und Agenten-Produkten verändern sich Metriken und Zielwerte derzeit schnell

Was sich auch im AI-Zeitalter nicht ändert

  • Die Kernprinzipien ändern sich nicht, aber die heute aufgebauten Unternehmen sind grundlegend anders
  • AI verändert Benutzeroberfläche, Preismodell, Margen usw., und AI-first- sowie Agenten-Produkte werden auf grundsätzlich andere Weise genutzt
  • Das 5-Phasen-Modell verschwindet nicht, doch an jeder Phase steht nun ein Fragezeichen — jede Phase muss durch die Verbindung bestehender und neuer Metriken neu definiert werden

Produktmetriken: 6 zentrale Veränderungen

  • Shift 1: Der Zusammenbruch der Time to Value

    • Traditionelles SaaS vermittelte Wert über ein schrittweises Onboarding, doch bei AI-Produkten erwarten Nutzer sofortige Ergebnisse in hoher Qualität
      • Wer ein unordentliches Dokument eingibt, erwartet einen sauber ausgearbeiteten Vorschlag, wer ein Spreadsheet hochlädt, erwartet Analyseergebnisse, wer eine Wireframe-Skizze eingibt, erwartet eine funktionierende UI
      • Die Eingabeformen sind vielfältig, die Erwartung bleibt gleich: schnelle, hochwertige Outputs beim ersten Versuch
    • Auch die Time to Competency bricht weg — selbst nichttechnische Nutzer können ohne Lernkurve Ergebnisse auf Expertenniveau erzeugen
      • Wenn die bisherige Aktivierungskurve eine Lernkurve war, wird sie jetzt auf ein oder zwei Interaktionen verkürzt
    • Positiv, aber potenziell negativ für das Geschäftsmodell: Wenn eine Person mit AI die Arbeit von drei Personen erledigt, trifft das Seat-Zahl, Expansion Revenue und ACV-Kurve
      • Zufriedene Nutzer, weniger Seats — diese Spannung beginnt bei Shift 1 und wirkt sich auf alle nachgelagerten Metriken aus
    • Zu messen: Zeit bis zum ersten nützlichen Ergebnis, Anteil der Nutzer, die beim ersten Versuch ein nützliches Ergebnis erhalten (unabhängig davon, ob per Prompt, Upload oder Skizze)
  • Shift 2: Activation ist nicht mehr ausschlaggebend

    • Im traditionellen SaaS war Activation ein deterministisches Event — wenn Nutzer festgelegte Schritte abschlossen, entstand ein vorhersagbares Ergebnis
    • In AI-Produkten können Nutzer alle Schritte des Activation-Funnels abschließen und trotzdem unzureichende Ergebnisse erhalten
      • Im Dashboard erscheint das als aktiviert, in Wirklichkeit ist es das aber nicht
    • Activation ist kein binäres Gate mehr, sondern ein qualitätsgewichtetes Event
    • Nir Eyals Hooked-Modell (Trigger → Handlung → variable Belohnung → Investition) gilt weiterhin, doch im AI-Loop gibt es auf beiden Seiten der Handlung Variabilität
      • Nutzer testen das Produkt auf nicht vorgesehene Weise, und auch die Ergebnisqualität ist variabel — zwei Quellen der Variabilität in einem einzigen Loop
    • Komplexe mehrstufige Activation bleibt auch bei AI-Produkten wirksam — wenn das Einrichten von Kontextverbindungen, das Hochladen von Referenzmaterial oder das Konfigurieren von Templates die Qualität des ersten Runs erhöht, kann das sogar effektiver sein
      • Die zentrale Veränderung ist nicht, dass Activation kürzer geworden ist, sondern dass der Abschluss der Schritte keinen Wertbeitrag garantiert
    • Zu messen: Neben bestehenden Funnel-Completion-Metriken parallel das Erstversuchs-Qualitätssignal aus Shift 1 tracken — der Funnel zeigt den Abschluss von Schritten, das Qualitätssignal, ob tatsächlich Wert geliefert wurde; im Dashboard sollten beide nebeneinander stehen
  • Shift 3: Engagement ist eine Richtungsmetrik

    • Das traditionelle Verständnis: Je länger die Verweildauer im Produkt, desto besser — lange Sessions, hoher DAU und tiefe Feature-Nutzung gehörten ins Pitch Deck
    • Bei AI ist nicht steigendes oder sinkendes Engagement entscheidend, sondern wofür die Zeit des Nutzers verwendet wird
      • Zeit des Ringens (Regenerieren, erneutes Prompting, Anpassen der Eingaben für ein brauchbares Ergebnis) = schlechtes Engagement, als Engagement verkleideter Misserfolg
      • Zeit, in der AI für den Nutzer arbeitet (Spreadsheets bearbeiten, Vorschläge erstellen, Dokumente prüfen) = gutes Engagement, ein Zeichen von AI-Arbeit
      • Zeit für Exploration und Kreation (Brainstorming, Ideenfindung, Design-Iterationen) = gutes Engagement, hier gilt die traditionelle Intuition weiter
      • Null Nutzerzeit, Aufgabe erledigt = das ideale Ergebnis für Agenten- und Automatisierungsprodukte
    • GitHub Copilot betrachtet die Akzeptanzrate von Vorschlägen als Kernmetrik; branchenweit liegt sie bei etwa 27–30 %
      • Eine KPI, die es im traditionellen SaaS nicht gab und die nicht direkt misst, ob „Nutzer geblieben sind“, sondern ob „die Arbeit der AI nützlich war“
  • Shift 4: Stickiness ist keine Barriere, sondern Flow

    • Traditionelle Stickiness war ein Frequenzspiel (DAU/MAU, Wiederkehr, Habit Loops), und Andrew Chen hat auf die Grenzen von DAU/MAU hingewiesen — ungeeignet für episodische, aber hochgradig wertvolle Produkte oder Tools mit wöchentlichem Rhythmus
    • AI schafft DAU/MAU nicht ab, verstärkt aber deren bestehende Grenzen
    • Zwei Dinge passieren gleichzeitig:
      • Nutzer erwarten von AI-Produkten eine größere Vielfalt an Aufgaben als von bisherigen Single-Function-SaaS-Tools — Task Diversity per User wird zu einem neuen Wachstumsvektor
      • Wirklich sticky AI-Produkte sind keine Barrieren, die Nutzer einsperren, sondern existieren im Arbeitsfluss — das passt zu Trace Cohens Konzept „Moats are dead. Long live canals
        • „Burgen entstehen durch Ausschluss, Kanäle durch Durchsatz“
    • Zu messen:
      • Task Diversity — ob Nutzer das Produkt auf Use Cases außerhalb seines ursprünglichen Bereichs ausdehnen
      • Integrationstiefe — wie viele Tools und Datenquellen der Nutzer mit dem Produkt verbunden hat
      • Trigger Diversity — ob ein einzelner oder mehrere Faktoren Nutzer zurückbringen
      • Workflow Chaining — ob das Produkt an andere Tools übergibt oder Übergaben von ihnen entgegennimmt
    • Wenn Menschen nicht mehr die Hauptnutzer sind, wird das klassische DAU/MAU zu einer problematischen Metrik
    • Zusätzliche Metrik Replacement Breadth: Anzahl benachbarter Tools, Abos oder manueller Prozesse, die ein Kunde bei der Einführung des Produkts ersetzt hat
      • Ist die Antwort 0, handelt es sich um einen kleinen, umgehbaren Kanal; ist sie signifikant, wird das Produkt zum Pfad, durch den alles fließt
  • Shift 5: Qualität ist eine First-Class-Metrik

    • Dieselbe Grundursache wie bei Shift 2: AI-Outputs sind probabilistisch, nicht deterministisch — diese Veränderung wirkt sich auf alle Metriken aus, die aus dem SaaS-Playbook übernommen wurden
    • Traditionell: Eine Funktion funktioniert oder funktioniert nicht — nach dem Rollout wird instrumentiert und man geht weiter
    • AI-Realität: Output ist keine Eigenschaft, sondern eine Verteilung — ein Produkt, das zu 80 % gut ist, fühlt sich für Nutzer völlig anders an als eines, das zu 95 % gut ist
    • Fall Klarna: Nach der Einführung eines rein AI-basierten Kundensupports im Jahr 2024 behauptete das Unternehmen, AI übernehme die Arbeit von 700 Support-Mitarbeitern; Mitte 2025 nahm der CEO dies öffentlich zurück und begann wieder mit der Einstellung von Menschen
    • Brittleness — Qualität kann durch Modelle, die man nicht besitzt, Integrationen, die man kaum kontrolliert, und Updates von Upstream-Anbietern stillschweigend regressieren
      • Die Qualität kann sinken, auch wenn das Team den Code nicht anfasst — eine neue Risikokategorie
    • Gegenmaßnahme: Für reale Prompts modellübergreifende Vergleichsevaluierungen durchführen und dieselben Evals über alle Modelle laufen lassen, um Regressionen und Verbesserungen zu erkennen
    • Zu messen:
      • Thumbs-up-Rate und Regenerate Rate sind zentrale Signale
      • Eval-Harness-Scores wie Retention als Zeitreihe verfolgen und auf alle verwendeten Modelle anwenden
      • Qualitätsverteilungen nach Kohorten — neue Nutzer und Power User erleben das Produkt unterschiedlich, und die meisten Teams messen diese Lücke nicht
    • Aus Sicht von Alistair Croll: Wenn das MVP im Lean-Startup-Zeitalter das kleinste Experiment war, um die riskanteste Annahme zu testen, dann ist im AI-Zeitalter die Eval-Suite das MVP — „die minimale Menge an Aktionen, mit der sich Verbesserungen automatisieren und messen lassen“
  • Shift 6: Vertrauen in und Komfort mit AI sind Frühindikatoren

    • Technische Kompetenz war schon immer wichtig, doch bei AI wird das Komfortniveau gegenüber der Technologie selbst zu einer Variablen, die alle nachgelagerten Metriken beeinflusst
    • Gallup-Studie vom Februar 2026 (23.717 Beschäftigte in den USA): Was AI-Anwender von Nicht-Anwendern unterscheidet, ist nicht der Zugang zu Tools, sondern ob sie AI als nützlich, ethisch und passend für ihren Workflow ansehen
    • Stanford 2026 AI Index Report: weltweite Adoptionsrate unter Beschäftigten 58 %, die USA liegen mit 28,3 % deutlich hinter Singapore mit 61 % und den VAE mit 54 %
      • Dasselbe Produkt kann auf dramatisch unterschiedlichen Nutzergruppen aufsetzen, und die meisten Teams messen das nicht
    • Im B2B-Bereich können sich die Kurven für Activation, Stickiness und Task Diversity zwischen AI-nativen Nutzern und AI-zögerlichen Nutzern deutlich unterscheiden
      • AI-native Nutzer erweitern Tools, prompten auf nicht vorgesehene Weise und ziehen pro Session mehr Wert heraus
      • AI-zögerliche Nutzer verwenden das Tool vorsichtig und zu wenig und kommen still zu dem Schluss: „Das ist nichts für mich“
      • Misst man sie als eine einzige Kohorte, verdeckt der Durchschnitt die tatsächliche Geschichte
    • Im B2C-Bereich entstehen Produkte für Begleitung, Unterstützung der psychischen Gesundheit, Freundschaft und emotionales Wohlbefinden als reale Kategorie
  • Stanford-Daten: 52 % der globalen Befragten sind von AI-Begleitern begeistert, in Singapore und Indonesia mehr als 80 %

    • In diesem Kontext wird Wertschöpfung an der anhaltenden Teilnahme, dem Gespräch und der Bereitschaft zur emotionalen Interaktion der Nutzer gemessen
    • Vertrauen ist kein einzelnes Konzept, sondern besteht aus mindestens vier unabhängigen Dimensionen:
      • Vertrauen in die Ausgabe (Genauigkeit·Nützlichkeit), Vertrauen in die Datenverarbeitung (Wohin Prompts gehen), Sicherheitsvertrauen (Möglichkeit von Missbrauch·Datenabfluss), Vertrauenswürdigkeit der Zuverlässigkeit (ob man sich bei Abhängigkeit nicht überrumpelt fühlt)
    • Zu messen:
      • Adoptions- und Aktivierungskurven nach AI-Komfort-Kohorten
      • Akzeptanzrate (accept rate) — bei Analyse nach AI-Komfort-Kohorten lässt sich erkennen, wie schnell Vertrauen aufgebaut wird; wichtiger als der absolute Wert ist die Steigung der Kurve
      • Override-Rate (override rate) — wie häufig Nutzer AI-Ergebnisse umschreiben oder bearbeiten; ein Rückgang ist ein Signal für steigendes Vertrauen
      • Emotional nahestehende B2C-Produkte: Sitzungstiefe, Rückkehrrate zu sensiblen Funktionen, qualitativer Ton der Interaktion
      • Signale für Daten- und Sicherheitsbedenken: Funktions-Opt-out, Support-Tickets wie „Wohin geht das?“, Vermeidung sensibler Eingaben

Kennzahlen des Geschäftsmodells: 3 zentrale Veränderungen

  • Shift 1: Kosten pro erfolgreicher Aufgabe als neue CAC-Berechnung

    • Traditionelles SaaS: CAC, LTV und Bruttomarge pro Kunde sind relativ stabil, mit wachsender Größe sinken die Kosten, die Grenzkosten für zusätzliche Nutzer gehen nahezu gegen null
    • AI-Realität: Power-User verursachen tatsächlich Kosten — Tokens sind variable Kosten, Festpreis-Abo + Heavy User = negative Marge pro Account
      • Die SaaS-LTV-Kurve greift nicht; je mehr Nutzung, desto schlechter die Unit Economics — eine umgekehrte Struktur
    • Zu messen: Bruttomarge pro aktivem Nutzer (auf Basis aktiver Nutzer, nicht zahlender Nutzer), Kosten pro erfolgreicher Aufgabe, Verhältnis der Modellkosten zum Umsatz, Grenzkosten gegenüber Grenzerlös bei Power-Usern
    • Intercoms Fin: nicht Abrechnung pro Seat, sondern 0,99 US-Dollar pro erfolgreicher Lösung — ergebnisbasierte Preisgestaltung als mathematisch ehrliches Modell für die tatsächlichen Betriebskosten von AI-Produkten
    • ElevenLabs rechnete vom ersten Tag an nutzungsbasiert ab, Anthropic und OpenAI ringen öffentlich mit der Ökonomie von Consumer-Abos
    • Wenn Preisgestaltung und Kennzahlen variable Compute-Kosten nicht abbilden, ist man blind
  • Shift 2: Preisgestaltung bestimmt das Produkt

    • Nutzungsbasierte und ergebnisbasierte Preisgestaltung steckt noch in den Anfängen, Hybridmodelle (niedrige Monatsgebühr + Nutzung + Überziehungsgebühren) werden wahrscheinlich zur Endform der meisten AI-Produkte
    • Das Preismodell vermittelt Nutzern die Definition von Erfolg — es muss mit den zugrunde liegenden Unit Economics übereinstimmen; bei Fehlanpassung werden Margen aufgezehrt oder Wachstum begrenzt, oder beides
    • „20 US-Dollar pro Monat für unbegrenzte AI-Abfragen“ und „0,99 US-Dollar pro erfolgreichem Ergebnis“ unterscheiden sich nicht nur im Preismodell, sondern sind aus Nutzersicht völlig unterschiedliche Produkte
      • Ersteres: „Experimentiere frei, die Lernkosten tragen wir“
      • Letzteres: „Wir gewinnen nur, wenn du gewinnst“
    • Die meisten PMs mussten sich bisher nicht tiefgehend mit Preisgestaltung befassen, doch AI-native PMs müssen Pricing als Kern der Produktgestaltung behandeln
    • AI-Funktionen sind im Gegensatz zu traditionellen SaaS-Features nicht günstig im Betrieb — teure AI-Funktionen mit geringem Nutzerwert können das Ganze ruinieren
  • Shift 3: Experimente sind keine Vanity Metrics mehr

    • AI-gestützte Produktentwicklung erhöht die Auslieferungsgeschwindigkeit explosionsartig — die Kosten für das Launching von Features brechen ein
    • Wer schneller ausliefert, ohne wirklich zu experimentieren, betreibt „Vibe-Stuffing“ — Features hinzufügen, weil es möglich ist, nicht weil es Belege gibt
      • Die meisten Features schaffen keinen Wert und blähen Produkt und Codebasis auf, während sie die kognitive Last für Nutzer erhöhen
    • Jedes AI-Feature verursacht bei jeder Nutzung fortlaufende Aufrufkosten — Inferenz ist nicht gratis
      • Die Aufblähung durch Vibe-Stuffing ist nicht nur Komplexität, sondern eine mit der Nutzung zinseszinsartig wachsende Steuer
      • Produktaufblähung im AI-Zeitalter ist ein Margenkiller
    • Solide Experimente sind die einzige Verteidigung, und der Wert von Lean Analytics steigt dadurch sogar
      • Die Disziplin bei Auswahl von Kennzahlen, Formulierung von Hypothesen, Belastungstests und der Entscheidung über nächste Schritte trennt lernende Teams von Teams, die nur releasen
    • Ein nützlicher Filter: Für jedes Experiment Hypothese und Entscheidungskriterien vor dem Launch dokumentieren — sonst ist es kein Experiment, sondern ein Release
    • Zu messen: Anzahl Experimente pro Quartal, vor dem Launch dokumentierte Hypothesen, datenbasierte Stilllegung von Features, Kosten pro betriebenem Feature (nicht nur, ob es genutzt wird, sondern ob die Betriebskosten gerechtfertigt sind)
  • Value Density

    • Das Prinzip, das alle drei Veränderungen im Geschäftsmodell durchzieht: Ben Murray (The SaaS CFO) formuliert es so — „Wenn es bei SaaS um Margeneffizienz geht, dann geht es bei AI um Value Density, also darum, wie viel Output, Produktivität und Arbeit pro 1 US-Dollar Compute ersetzt werden“
    • ICONIQ-Bericht vom Januar 2026: Bei AI-B2B-Unternehmen in der Scaling-Phase macht Inferenz 23 % des Umsatzes aus, die durchschnittliche AI-Bruttomarge liegt 2026 bei 52 % (gegenüber 41 % im Jahr 2024, aber unter reifem SaaS mit 70–90 %)
    • Bessemer: AI-first-Unternehmen erreichen Bruttomargen von 50–60 %
    • Jason Lemkin: „Je stärker man wächst, desto mehr Inferenz wird benötigt, und ohne Qualitätsverlust des Produkts lässt sich das nicht reduzieren“
    • Drei Kennzahlen für die Messung von Value Density (sie bewegen sich unabhängig voneinander):
      • Kosten der Bereitstellung pro Aufgabe — wie viel Token- und Compute-Kosten nötig sind, um ein erfolgreiches Ergebnis zu erzeugen
      • Umsatz pro 1 US-Dollar Compute — ob genug berechnet wird, um variable Kosten plus Marge zu decken
      • An Nutzer gelieferter Wert pro 1 US-Dollar Compute — die Kennzahl, die die meisten Teams auslassen; für eine Diagnose müssen alle drei gemessen werden

Die Zukunft: Menschen treten aus dem Loop zurück

  • „Build-too-much“ ist das neue Overfitting

    • Bauen ist so einfach geworden, dass das Risiko steigt, mehr auszurollen, als Nutzer aufnehmen können oder als die Daten rechtfertigen
    • Alistair Croll: AI entfernt die Reibung, die früher zum Löschen gezwungen hat — alter Code blieb wegen der Kosten des Neuschreibens, alte Features wegen der Build-Kosten; jetzt wird nichts mehr aufgeräumt
      • Fallbacks sammeln sich als „unsichtbare tragende Wände“, AI-generierte Tests optimieren auf Selbstbestehen statt auf die Verifikation des gewünschten Verhaltens
      • „Löschen fühlt sich riskanter an als Beibehalten, und ohne Reibung bleibt alles bestehen“
    • PMs, die Löschen genauso sorgfältig messen wie Hinzufügen, gewinnen
  • Wenn Agenten die Nutzer sind

    • Wenn Claude-Agenten ein Produkt ohne UI anstelle von Menschen nutzen, ist unklar, wer der Nutzer ist und was Aktivierung, Session-Länge und Engagement überhaupt bedeuten
    • Praktische Maßnahme: Agenten-Traffic als separates Cohort instrumentieren — per user-agent-String, API-Muster usw. zwischen „Mensch bedient die UI“ und „Agent ruft die API auf“ unterscheiden
      • Das Verhalten ist anders, die Erfolgskriterien sind anders, und wenn beides in einer Kennzahl vermischt wird, erhält man für beide die falsche Antwort
    • Rob Mays Konzept HX (Harness Experience): Wenn UX 30 Jahre lang Menschen dazu brachte, die richtigen Buttons zu klicken, überspringen autonome Agenten all das
      • „Der Funnel ist nicht kaputt, sondern irrelevant geworden
      • HX ist die Design-Ebene für Menschen, die Flotten von Agenten steuern, ihnen vertrauen und sie auditieren — der Nutzer ist nicht Fahrer, sondern Direktor
      • Statt Klicks und Conversions misst man Ergebnisse, Aufsicht und Eingriffe
  • Discoverability und Reuse

    • Zwei Probleme, eine gemeinsame Ursache: AI, die einem nicht gehört, entscheidet darüber, ob das Produkt genutzt wird
    • Discoverability: Wenn ein Nutzer ChatGPT sagt „Hilf mir bei der Planung einer Reise nach Mexiko“, wählt ChatGPT zwischen Expedia, Booking und Kayak — die AI wählt das Tool, nicht der Nutzer
      • 30 Jahre lang ging es bei Distribution darum, dass Menschen etwas finden und auswählen; in einer Agentenwelt konkurriert man um die Auswahllogik der AI
    • Reuse: Selbst wenn ein Nutzer Canva bezahlt und die ChatGPT-App installiert hat, entscheidet bei einem Designauftrag über ChatGPT jedes Mal die AI, ob Canva aufgerufen wird
      • Auch wenn man den Kunden „besitzt“, besitzt man nicht den Moment, in dem der Wert tatsächlich entsteht — ein neues Plattformrisiko
    • Zu verfolgen: die Lücke zwischen „Nutzern, die das Produkt besitzen oder dafür zahlen“ und „Nutzern, für die die AI es tatsächlich aufruft“
      • Ein zahlender Abonnent, den die AI 30 Tage lang nicht aufgerufen hat, ist riskanter als ein Abonnent, der sich nicht direkt eingeloggt hat
  • Agent-zu-Agent-Produkte

    • Wenn ein Produkt ein Netzwerk von Agenten ist, die mit den Agenten anderer zusammenarbeiten, ist noch unklar, was OMTM, Bindung und Churn bedeuten
    • An allen vier Stufen des Hooked-Modells hängen heute Fragen, die es vor fünf Jahren noch nicht gab:
      • Was ein Trigger bedeutet, wenn AI triggert; was eine Aktion bedeutet, wenn AI handelt; wie man ein Wesen belohnt, das keine Belohnung erlebt; und ob Investition in Systemen gilt, die keinen Speicher früherer Loops haben oder ein perfektes Gedächtnis besitzen

Womit man heute sofort anfangen sollte

  • Engagement-Metriken prüfen: Nicht fragen „Steigt oder fällt das Engagement?“, sondern „Wofür wird die Zeit der Nutzer verwendet?“ — Zeit des Herumkämpfens ist als Engagement verpacktes Scheitern
  • Qualitätsansicht nach Kohorten ergänzen: Die Ausgabequalität von neuen Nutzern und Power-Usern getrennt messen — die Lücke kann größer sein als erwartet und Verbesserungsansätze beim Onboarding präzise aufzeigen
  • Bruttomarge pro aktivem Nutzer prüfen: Auf Basis aktiver Nutzer statt zahlender Nutzer — das aktuelle Dashboard zeigt möglicherweise nicht, ob die besten Nutzer das größte Kapital oder die größte Verbindlichkeit sind
  • Separate Erfassung von Agenten-Traffic starten: Selbst wenn er derzeit nur 2 % beträgt, muss vor dem Wandel der Traffic-Struktur eine Baseline gesichert werden
  • Eval-Harness aufbauen: Wenn sich nicht systematisch bewerten lässt, ob die AI die gewünschte Aufgabe ausführt, ist es kein Produkt, sondern „Vibes“
  • Art des Feature-Buildings bewerten: Prüfen, ob strenge Experimente durchgeführt werden oder ob das Produkt durch Vibe Stuffing ruiniert wird

Noch keine Kommentare.

Noch keine Kommentare.