Lean Analytics im Zeitalter von AI und Agenten neu betrachtet
(focusedchaos.co)- Das Kern-Framework von Lean Analytics aus dem Jahr 2013 (Phase bestimmen, Geschäftsmodell verstehen, OMTM, Benchmarks) ist weiterhin gültig, doch im AI-Zeitalter müssen die meisten konkreten Metriken neu definiert werden
- Bei AI-Produkten hat sich die Time to Value extrem verkürzt, und Nutzer erwarten schon beim ersten Versuch ein hochwertiges Ergebnis und springen bei Misserfolg schnell ab
- Engagement ist nicht mehr einfach nur hoch oder niedrig, sondern wird zu einer Richtungsmetrik, bei der unterschieden werden muss, wofür Zeit verwendet wird (Mühe/Kampf vs. AI-Arbeit vs. Exploration)
- Aufgrund der probabilistischen Eigenschaften von AI-Outputs ist Qualität zu einer Metrik erster Ordnung geworden; ohne Eval-Harness ist ein Produkt nichts weiter als ein „Gefühl“
- Durch die tokenbasierte Struktur variabler Kosten können Power-User sogar Verluste verursachen; daher sind die Verfolgung des Rohertrags pro aktivem Nutzer und leistungsbasierte Preismodelle zentrale Aufgaben
Zusammenfassung der Kernprinzipien von Lean Analytics
- Lean Analytics basiert auf vier Kernideen: Phase bestimmen, Geschäftsmodell verstehen, OMTM (One Metric That Matters), Benchmarks (lines in the sand)
- Das 5-Phasen-Modell: Empathy → Stickiness → Virality → Revenue → Scale als Abfolge, die jedes Unternehmen durchläuft
- Viele Gründer täuschen sich über ihre eigene Phase hinweg und neigen dazu, auch im AI-Zeitalter Hockey-Stick-Wachstum ohne solides Fundament anzustreben
- Sechs Archetypen von Geschäftsmodellen: SaaS, E-Commerce, zweiseitiger Marktplatz, nutzergenerierte Inhalte/Community, mobile Apps, Medien
- Diese Einteilung ist veraltet, aber das Prinzip, die Funktionsweise des eigenen Geschäfts zu verstehen, bleibt wichtig
- OMTM: Unabhängig von Phase und Geschäftsmodell gibt es eine einzelne Metrik, auf die man sich konzentrieren muss
- Da nicht alles gleichzeitig verbessert werden kann, hilft sie dabei zu bestimmen, woran gearbeitet und wie gemessen werden soll
- Benchmarks (lines in the sand): Kriterien, die zeigen, ob man die Berechtigung hat, in die nächste Phase überzugehen
- Bei AI- und Agenten-Produkten verändern sich Metriken und Zielwerte derzeit schnell
Was sich auch im AI-Zeitalter nicht ändert
- Die Kernprinzipien ändern sich nicht, aber die heute aufgebauten Unternehmen sind grundlegend anders
- AI verändert Benutzeroberfläche, Preismodell, Margen usw., und AI-first- sowie Agenten-Produkte werden auf grundsätzlich andere Weise genutzt
- Das 5-Phasen-Modell verschwindet nicht, doch an jeder Phase steht nun ein Fragezeichen — jede Phase muss durch die Verbindung bestehender und neuer Metriken neu definiert werden
Produktmetriken: 6 zentrale Veränderungen
-
Shift 1: Der Zusammenbruch der Time to Value
- Traditionelles SaaS vermittelte Wert über ein schrittweises Onboarding, doch bei AI-Produkten erwarten Nutzer sofortige Ergebnisse in hoher Qualität
- Wer ein unordentliches Dokument eingibt, erwartet einen sauber ausgearbeiteten Vorschlag, wer ein Spreadsheet hochlädt, erwartet Analyseergebnisse, wer eine Wireframe-Skizze eingibt, erwartet eine funktionierende UI
- Die Eingabeformen sind vielfältig, die Erwartung bleibt gleich: schnelle, hochwertige Outputs beim ersten Versuch
- Auch die Time to Competency bricht weg — selbst nichttechnische Nutzer können ohne Lernkurve Ergebnisse auf Expertenniveau erzeugen
- Wenn die bisherige Aktivierungskurve eine Lernkurve war, wird sie jetzt auf ein oder zwei Interaktionen verkürzt
- Positiv, aber potenziell negativ für das Geschäftsmodell: Wenn eine Person mit AI die Arbeit von drei Personen erledigt, trifft das Seat-Zahl, Expansion Revenue und ACV-Kurve
- Zufriedene Nutzer, weniger Seats — diese Spannung beginnt bei Shift 1 und wirkt sich auf alle nachgelagerten Metriken aus
- Zu messen: Zeit bis zum ersten nützlichen Ergebnis, Anteil der Nutzer, die beim ersten Versuch ein nützliches Ergebnis erhalten (unabhängig davon, ob per Prompt, Upload oder Skizze)
- Traditionelles SaaS vermittelte Wert über ein schrittweises Onboarding, doch bei AI-Produkten erwarten Nutzer sofortige Ergebnisse in hoher Qualität
-
Shift 2: Activation ist nicht mehr ausschlaggebend
- Im traditionellen SaaS war Activation ein deterministisches Event — wenn Nutzer festgelegte Schritte abschlossen, entstand ein vorhersagbares Ergebnis
- In AI-Produkten können Nutzer alle Schritte des Activation-Funnels abschließen und trotzdem unzureichende Ergebnisse erhalten
- Im Dashboard erscheint das als aktiviert, in Wirklichkeit ist es das aber nicht
- Activation ist kein binäres Gate mehr, sondern ein qualitätsgewichtetes Event
- Nir Eyals Hooked-Modell (Trigger → Handlung → variable Belohnung → Investition) gilt weiterhin, doch im AI-Loop gibt es auf beiden Seiten der Handlung Variabilität
- Nutzer testen das Produkt auf nicht vorgesehene Weise, und auch die Ergebnisqualität ist variabel — zwei Quellen der Variabilität in einem einzigen Loop
- Komplexe mehrstufige Activation bleibt auch bei AI-Produkten wirksam — wenn das Einrichten von Kontextverbindungen, das Hochladen von Referenzmaterial oder das Konfigurieren von Templates die Qualität des ersten Runs erhöht, kann das sogar effektiver sein
- Die zentrale Veränderung ist nicht, dass Activation kürzer geworden ist, sondern dass der Abschluss der Schritte keinen Wertbeitrag garantiert
- Zu messen: Neben bestehenden Funnel-Completion-Metriken parallel das Erstversuchs-Qualitätssignal aus Shift 1 tracken — der Funnel zeigt den Abschluss von Schritten, das Qualitätssignal, ob tatsächlich Wert geliefert wurde; im Dashboard sollten beide nebeneinander stehen
-
Shift 3: Engagement ist eine Richtungsmetrik
- Das traditionelle Verständnis: Je länger die Verweildauer im Produkt, desto besser — lange Sessions, hoher DAU und tiefe Feature-Nutzung gehörten ins Pitch Deck
- Bei AI ist nicht steigendes oder sinkendes Engagement entscheidend, sondern wofür die Zeit des Nutzers verwendet wird
- Zeit des Ringens (Regenerieren, erneutes Prompting, Anpassen der Eingaben für ein brauchbares Ergebnis) = schlechtes Engagement, als Engagement verkleideter Misserfolg
- Zeit, in der AI für den Nutzer arbeitet (Spreadsheets bearbeiten, Vorschläge erstellen, Dokumente prüfen) = gutes Engagement, ein Zeichen von AI-Arbeit
- Zeit für Exploration und Kreation (Brainstorming, Ideenfindung, Design-Iterationen) = gutes Engagement, hier gilt die traditionelle Intuition weiter
- Null Nutzerzeit, Aufgabe erledigt = das ideale Ergebnis für Agenten- und Automatisierungsprodukte
- GitHub Copilot betrachtet die Akzeptanzrate von Vorschlägen als Kernmetrik; branchenweit liegt sie bei etwa 27–30 %
- Eine KPI, die es im traditionellen SaaS nicht gab und die nicht direkt misst, ob „Nutzer geblieben sind“, sondern ob „die Arbeit der AI nützlich war“
-
Shift 4: Stickiness ist keine Barriere, sondern Flow
- Traditionelle Stickiness war ein Frequenzspiel (DAU/MAU, Wiederkehr, Habit Loops), und Andrew Chen hat auf die Grenzen von DAU/MAU hingewiesen — ungeeignet für episodische, aber hochgradig wertvolle Produkte oder Tools mit wöchentlichem Rhythmus
- AI schafft DAU/MAU nicht ab, verstärkt aber deren bestehende Grenzen
- Zwei Dinge passieren gleichzeitig:
- Nutzer erwarten von AI-Produkten eine größere Vielfalt an Aufgaben als von bisherigen Single-Function-SaaS-Tools — Task Diversity per User wird zu einem neuen Wachstumsvektor
- Wirklich sticky AI-Produkte sind keine Barrieren, die Nutzer einsperren, sondern existieren im Arbeitsfluss — das passt zu Trace Cohens Konzept „Moats are dead. Long live canals“
- „Burgen entstehen durch Ausschluss, Kanäle durch Durchsatz“
- Zu messen:
- Task Diversity — ob Nutzer das Produkt auf Use Cases außerhalb seines ursprünglichen Bereichs ausdehnen
- Integrationstiefe — wie viele Tools und Datenquellen der Nutzer mit dem Produkt verbunden hat
- Trigger Diversity — ob ein einzelner oder mehrere Faktoren Nutzer zurückbringen
- Workflow Chaining — ob das Produkt an andere Tools übergibt oder Übergaben von ihnen entgegennimmt
- Wenn Menschen nicht mehr die Hauptnutzer sind, wird das klassische DAU/MAU zu einer problematischen Metrik
- Zusätzliche Metrik Replacement Breadth: Anzahl benachbarter Tools, Abos oder manueller Prozesse, die ein Kunde bei der Einführung des Produkts ersetzt hat
- Ist die Antwort 0, handelt es sich um einen kleinen, umgehbaren Kanal; ist sie signifikant, wird das Produkt zum Pfad, durch den alles fließt
-
Shift 5: Qualität ist eine First-Class-Metrik
- Dieselbe Grundursache wie bei Shift 2: AI-Outputs sind probabilistisch, nicht deterministisch — diese Veränderung wirkt sich auf alle Metriken aus, die aus dem SaaS-Playbook übernommen wurden
- Traditionell: Eine Funktion funktioniert oder funktioniert nicht — nach dem Rollout wird instrumentiert und man geht weiter
- AI-Realität: Output ist keine Eigenschaft, sondern eine Verteilung — ein Produkt, das zu 80 % gut ist, fühlt sich für Nutzer völlig anders an als eines, das zu 95 % gut ist
- Fall Klarna: Nach der Einführung eines rein AI-basierten Kundensupports im Jahr 2024 behauptete das Unternehmen, AI übernehme die Arbeit von 700 Support-Mitarbeitern; Mitte 2025 nahm der CEO dies öffentlich zurück und begann wieder mit der Einstellung von Menschen
- Brittleness — Qualität kann durch Modelle, die man nicht besitzt, Integrationen, die man kaum kontrolliert, und Updates von Upstream-Anbietern stillschweigend regressieren
- Die Qualität kann sinken, auch wenn das Team den Code nicht anfasst — eine neue Risikokategorie
- Gegenmaßnahme: Für reale Prompts modellübergreifende Vergleichsevaluierungen durchführen und dieselben Evals über alle Modelle laufen lassen, um Regressionen und Verbesserungen zu erkennen
- Zu messen:
- Thumbs-up-Rate und Regenerate Rate sind zentrale Signale
- Eval-Harness-Scores wie Retention als Zeitreihe verfolgen und auf alle verwendeten Modelle anwenden
- Qualitätsverteilungen nach Kohorten — neue Nutzer und Power User erleben das Produkt unterschiedlich, und die meisten Teams messen diese Lücke nicht
- Aus Sicht von Alistair Croll: Wenn das MVP im Lean-Startup-Zeitalter das kleinste Experiment war, um die riskanteste Annahme zu testen, dann ist im AI-Zeitalter die Eval-Suite das MVP — „die minimale Menge an Aktionen, mit der sich Verbesserungen automatisieren und messen lassen“
-
Shift 6: Vertrauen in und Komfort mit AI sind Frühindikatoren
- Technische Kompetenz war schon immer wichtig, doch bei AI wird das Komfortniveau gegenüber der Technologie selbst zu einer Variablen, die alle nachgelagerten Metriken beeinflusst
- Gallup-Studie vom Februar 2026 (23.717 Beschäftigte in den USA): Was AI-Anwender von Nicht-Anwendern unterscheidet, ist nicht der Zugang zu Tools, sondern ob sie AI als nützlich, ethisch und passend für ihren Workflow ansehen
- Stanford 2026 AI Index Report: weltweite Adoptionsrate unter Beschäftigten 58 %, die USA liegen mit 28,3 % deutlich hinter Singapore mit 61 % und den VAE mit 54 %
- Dasselbe Produkt kann auf dramatisch unterschiedlichen Nutzergruppen aufsetzen, und die meisten Teams messen das nicht
- Im B2B-Bereich können sich die Kurven für Activation, Stickiness und Task Diversity zwischen AI-nativen Nutzern und AI-zögerlichen Nutzern deutlich unterscheiden
- AI-native Nutzer erweitern Tools, prompten auf nicht vorgesehene Weise und ziehen pro Session mehr Wert heraus
- AI-zögerliche Nutzer verwenden das Tool vorsichtig und zu wenig und kommen still zu dem Schluss: „Das ist nichts für mich“
- Misst man sie als eine einzige Kohorte, verdeckt der Durchschnitt die tatsächliche Geschichte
- Im B2C-Bereich entstehen Produkte für Begleitung, Unterstützung der psychischen Gesundheit, Freundschaft und emotionales Wohlbefinden als reale Kategorie
-
Stanford-Daten: 52 % der globalen Befragten sind von AI-Begleitern begeistert, in Singapore und Indonesia mehr als 80 %
- In diesem Kontext wird Wertschöpfung an der anhaltenden Teilnahme, dem Gespräch und der Bereitschaft zur emotionalen Interaktion der Nutzer gemessen
- Vertrauen ist kein einzelnes Konzept, sondern besteht aus mindestens vier unabhängigen Dimensionen:
- Vertrauen in die Ausgabe (Genauigkeit·Nützlichkeit), Vertrauen in die Datenverarbeitung (Wohin Prompts gehen), Sicherheitsvertrauen (Möglichkeit von Missbrauch·Datenabfluss), Vertrauenswürdigkeit der Zuverlässigkeit (ob man sich bei Abhängigkeit nicht überrumpelt fühlt)
- Zu messen:
- Adoptions- und Aktivierungskurven nach AI-Komfort-Kohorten
- Akzeptanzrate (accept rate) — bei Analyse nach AI-Komfort-Kohorten lässt sich erkennen, wie schnell Vertrauen aufgebaut wird; wichtiger als der absolute Wert ist die Steigung der Kurve
- Override-Rate (override rate) — wie häufig Nutzer AI-Ergebnisse umschreiben oder bearbeiten; ein Rückgang ist ein Signal für steigendes Vertrauen
- Emotional nahestehende B2C-Produkte: Sitzungstiefe, Rückkehrrate zu sensiblen Funktionen, qualitativer Ton der Interaktion
- Signale für Daten- und Sicherheitsbedenken: Funktions-Opt-out, Support-Tickets wie „Wohin geht das?“, Vermeidung sensibler Eingaben
Kennzahlen des Geschäftsmodells: 3 zentrale Veränderungen
-
Shift 1: Kosten pro erfolgreicher Aufgabe als neue CAC-Berechnung
- Traditionelles SaaS: CAC, LTV und Bruttomarge pro Kunde sind relativ stabil, mit wachsender Größe sinken die Kosten, die Grenzkosten für zusätzliche Nutzer gehen nahezu gegen null
- AI-Realität: Power-User verursachen tatsächlich Kosten — Tokens sind variable Kosten, Festpreis-Abo + Heavy User = negative Marge pro Account
- Die SaaS-LTV-Kurve greift nicht; je mehr Nutzung, desto schlechter die Unit Economics — eine umgekehrte Struktur
- Zu messen: Bruttomarge pro aktivem Nutzer (auf Basis aktiver Nutzer, nicht zahlender Nutzer), Kosten pro erfolgreicher Aufgabe, Verhältnis der Modellkosten zum Umsatz, Grenzkosten gegenüber Grenzerlös bei Power-Usern
- Intercoms Fin: nicht Abrechnung pro Seat, sondern 0,99 US-Dollar pro erfolgreicher Lösung — ergebnisbasierte Preisgestaltung als mathematisch ehrliches Modell für die tatsächlichen Betriebskosten von AI-Produkten
- ElevenLabs rechnete vom ersten Tag an nutzungsbasiert ab, Anthropic und OpenAI ringen öffentlich mit der Ökonomie von Consumer-Abos
- Wenn Preisgestaltung und Kennzahlen variable Compute-Kosten nicht abbilden, ist man blind
-
Shift 2: Preisgestaltung bestimmt das Produkt
- Nutzungsbasierte und ergebnisbasierte Preisgestaltung steckt noch in den Anfängen, Hybridmodelle (niedrige Monatsgebühr + Nutzung + Überziehungsgebühren) werden wahrscheinlich zur Endform der meisten AI-Produkte
- Das Preismodell vermittelt Nutzern die Definition von Erfolg — es muss mit den zugrunde liegenden Unit Economics übereinstimmen; bei Fehlanpassung werden Margen aufgezehrt oder Wachstum begrenzt, oder beides
- „20 US-Dollar pro Monat für unbegrenzte AI-Abfragen“ und „0,99 US-Dollar pro erfolgreichem Ergebnis“ unterscheiden sich nicht nur im Preismodell, sondern sind aus Nutzersicht völlig unterschiedliche Produkte
- Ersteres: „Experimentiere frei, die Lernkosten tragen wir“
- Letzteres: „Wir gewinnen nur, wenn du gewinnst“
- Die meisten PMs mussten sich bisher nicht tiefgehend mit Preisgestaltung befassen, doch AI-native PMs müssen Pricing als Kern der Produktgestaltung behandeln
- AI-Funktionen sind im Gegensatz zu traditionellen SaaS-Features nicht günstig im Betrieb — teure AI-Funktionen mit geringem Nutzerwert können das Ganze ruinieren
-
Shift 3: Experimente sind keine Vanity Metrics mehr
- AI-gestützte Produktentwicklung erhöht die Auslieferungsgeschwindigkeit explosionsartig — die Kosten für das Launching von Features brechen ein
- Wer schneller ausliefert, ohne wirklich zu experimentieren, betreibt „Vibe-Stuffing“ — Features hinzufügen, weil es möglich ist, nicht weil es Belege gibt
- Die meisten Features schaffen keinen Wert und blähen Produkt und Codebasis auf, während sie die kognitive Last für Nutzer erhöhen
- Jedes AI-Feature verursacht bei jeder Nutzung fortlaufende Aufrufkosten — Inferenz ist nicht gratis
- Die Aufblähung durch Vibe-Stuffing ist nicht nur Komplexität, sondern eine mit der Nutzung zinseszinsartig wachsende Steuer
- Produktaufblähung im AI-Zeitalter ist ein Margenkiller
- Solide Experimente sind die einzige Verteidigung, und der Wert von Lean Analytics steigt dadurch sogar
- Die Disziplin bei Auswahl von Kennzahlen, Formulierung von Hypothesen, Belastungstests und der Entscheidung über nächste Schritte trennt lernende Teams von Teams, die nur releasen
- Ein nützlicher Filter: Für jedes Experiment Hypothese und Entscheidungskriterien vor dem Launch dokumentieren — sonst ist es kein Experiment, sondern ein Release
- Zu messen: Anzahl Experimente pro Quartal, vor dem Launch dokumentierte Hypothesen, datenbasierte Stilllegung von Features, Kosten pro betriebenem Feature (nicht nur, ob es genutzt wird, sondern ob die Betriebskosten gerechtfertigt sind)
-
Value Density
- Das Prinzip, das alle drei Veränderungen im Geschäftsmodell durchzieht: Ben Murray (The SaaS CFO) formuliert es so — „Wenn es bei SaaS um Margeneffizienz geht, dann geht es bei AI um Value Density, also darum, wie viel Output, Produktivität und Arbeit pro 1 US-Dollar Compute ersetzt werden“
- ICONIQ-Bericht vom Januar 2026: Bei AI-B2B-Unternehmen in der Scaling-Phase macht Inferenz 23 % des Umsatzes aus, die durchschnittliche AI-Bruttomarge liegt 2026 bei 52 % (gegenüber 41 % im Jahr 2024, aber unter reifem SaaS mit 70–90 %)
- Bessemer: AI-first-Unternehmen erreichen Bruttomargen von 50–60 %
- Jason Lemkin: „Je stärker man wächst, desto mehr Inferenz wird benötigt, und ohne Qualitätsverlust des Produkts lässt sich das nicht reduzieren“
- Drei Kennzahlen für die Messung von Value Density (sie bewegen sich unabhängig voneinander):
- Kosten der Bereitstellung pro Aufgabe — wie viel Token- und Compute-Kosten nötig sind, um ein erfolgreiches Ergebnis zu erzeugen
- Umsatz pro 1 US-Dollar Compute — ob genug berechnet wird, um variable Kosten plus Marge zu decken
- An Nutzer gelieferter Wert pro 1 US-Dollar Compute — die Kennzahl, die die meisten Teams auslassen; für eine Diagnose müssen alle drei gemessen werden
Die Zukunft: Menschen treten aus dem Loop zurück
-
„Build-too-much“ ist das neue Overfitting
- Bauen ist so einfach geworden, dass das Risiko steigt, mehr auszurollen, als Nutzer aufnehmen können oder als die Daten rechtfertigen
- Alistair Croll: AI entfernt die Reibung, die früher zum Löschen gezwungen hat — alter Code blieb wegen der Kosten des Neuschreibens, alte Features wegen der Build-Kosten; jetzt wird nichts mehr aufgeräumt
- Fallbacks sammeln sich als „unsichtbare tragende Wände“, AI-generierte Tests optimieren auf Selbstbestehen statt auf die Verifikation des gewünschten Verhaltens
- „Löschen fühlt sich riskanter an als Beibehalten, und ohne Reibung bleibt alles bestehen“
- PMs, die Löschen genauso sorgfältig messen wie Hinzufügen, gewinnen
-
Wenn Agenten die Nutzer sind
- Wenn Claude-Agenten ein Produkt ohne UI anstelle von Menschen nutzen, ist unklar, wer der Nutzer ist und was Aktivierung, Session-Länge und Engagement überhaupt bedeuten
- Praktische Maßnahme: Agenten-Traffic als separates Cohort instrumentieren — per user-agent-String, API-Muster usw. zwischen „Mensch bedient die UI“ und „Agent ruft die API auf“ unterscheiden
- Das Verhalten ist anders, die Erfolgskriterien sind anders, und wenn beides in einer Kennzahl vermischt wird, erhält man für beide die falsche Antwort
- Rob Mays Konzept HX (Harness Experience): Wenn UX 30 Jahre lang Menschen dazu brachte, die richtigen Buttons zu klicken, überspringen autonome Agenten all das
- „Der Funnel ist nicht kaputt, sondern irrelevant geworden“
- HX ist die Design-Ebene für Menschen, die Flotten von Agenten steuern, ihnen vertrauen und sie auditieren — der Nutzer ist nicht Fahrer, sondern Direktor
- Statt Klicks und Conversions misst man Ergebnisse, Aufsicht und Eingriffe
-
Discoverability und Reuse
- Zwei Probleme, eine gemeinsame Ursache: AI, die einem nicht gehört, entscheidet darüber, ob das Produkt genutzt wird
- Discoverability: Wenn ein Nutzer ChatGPT sagt „Hilf mir bei der Planung einer Reise nach Mexiko“, wählt ChatGPT zwischen Expedia, Booking und Kayak — die AI wählt das Tool, nicht der Nutzer
- 30 Jahre lang ging es bei Distribution darum, dass Menschen etwas finden und auswählen; in einer Agentenwelt konkurriert man um die Auswahllogik der AI
- Reuse: Selbst wenn ein Nutzer Canva bezahlt und die ChatGPT-App installiert hat, entscheidet bei einem Designauftrag über ChatGPT jedes Mal die AI, ob Canva aufgerufen wird
- Auch wenn man den Kunden „besitzt“, besitzt man nicht den Moment, in dem der Wert tatsächlich entsteht — ein neues Plattformrisiko
- Zu verfolgen: die Lücke zwischen „Nutzern, die das Produkt besitzen oder dafür zahlen“ und „Nutzern, für die die AI es tatsächlich aufruft“
- Ein zahlender Abonnent, den die AI 30 Tage lang nicht aufgerufen hat, ist riskanter als ein Abonnent, der sich nicht direkt eingeloggt hat
-
Agent-zu-Agent-Produkte
- Wenn ein Produkt ein Netzwerk von Agenten ist, die mit den Agenten anderer zusammenarbeiten, ist noch unklar, was OMTM, Bindung und Churn bedeuten
- An allen vier Stufen des Hooked-Modells hängen heute Fragen, die es vor fünf Jahren noch nicht gab:
- Was ein Trigger bedeutet, wenn AI triggert; was eine Aktion bedeutet, wenn AI handelt; wie man ein Wesen belohnt, das keine Belohnung erlebt; und ob Investition in Systemen gilt, die keinen Speicher früherer Loops haben oder ein perfektes Gedächtnis besitzen
Womit man heute sofort anfangen sollte
- Engagement-Metriken prüfen: Nicht fragen „Steigt oder fällt das Engagement?“, sondern „Wofür wird die Zeit der Nutzer verwendet?“ — Zeit des Herumkämpfens ist als Engagement verpacktes Scheitern
- Qualitätsansicht nach Kohorten ergänzen: Die Ausgabequalität von neuen Nutzern und Power-Usern getrennt messen — die Lücke kann größer sein als erwartet und Verbesserungsansätze beim Onboarding präzise aufzeigen
- Bruttomarge pro aktivem Nutzer prüfen: Auf Basis aktiver Nutzer statt zahlender Nutzer — das aktuelle Dashboard zeigt möglicherweise nicht, ob die besten Nutzer das größte Kapital oder die größte Verbindlichkeit sind
- Separate Erfassung von Agenten-Traffic starten: Selbst wenn er derzeit nur 2 % beträgt, muss vor dem Wandel der Traffic-Struktur eine Baseline gesichert werden
- Eval-Harness aufbauen: Wenn sich nicht systematisch bewerten lässt, ob die AI die gewünschte Aufgabe ausführt, ist es kein Produkt, sondern „Vibes“
- Art des Feature-Buildings bewerten: Prüfen, ob strenge Experimente durchgeführt werden oder ob das Produkt durch Vibe Stuffing ruiniert wird
Noch keine Kommentare.