- Der Aufstieg von LLM-basierter AI und Agenten-Workflows zerlegt die ökonomische Logik von SaaS grundlegend, während der rapide Preisverfall von Intelligenz die Wertströme im Enterprise-Tech-Markt neu ordnet
- Ein Kostenvorteil bei AI-Services allein reicht nicht aus, um einen nachhaltigen Burggraben aufzubauen; Startups, die von LLM-Infrastruktur abhängen, stehen vor dem Taxi-Dispatcher-Problem — eine Struktur, die auf geliehenen Margen beruht
- Gemäß dem Jevons-Paradoxon steigen die gesamten AI-Ausgaben explosionsartig, doch dieser Wert fließt nicht an alle bestehenden Marktteilnehmer zurück; stattdessen kommt es zu einer massiven Neuordnung der Wertschöpfungskette
- Unternehmen, die in Vertical AI gewinnen, bauen keine externen Dienstleister, sondern tief in die Abläufe ihrer Kunden eingebettete Systeme — Datengravitation, Netzwerkeffekte und Plattform-Lock-in sind entscheidend
- Die einzige nachhaltig tragfähige Strategie besteht darin, eine Niedrigpreisstrategie als bewussten Wedge zu nutzen, um Marktpositionierung zu gewinnen, und dann in eine zusammengesetzte Intelligenzplattform überzugehen
Struktureller Wandel: Von SaaS ins Zeitalter der AI-Agenten
- Der Markt für Enterprise-Technologie erlebt eine strukturelle Transformation, vergleichbar mit dem Wechsel von On-Premises zur Cloud
- Rund 20 Jahre lang schuf das SaaS-Modell Billionen an Marktkapitalisierung, gestützt auf wiederkehrende Umsätze, sitzbasierte Lizenzierung und Nutzerengagement als Wertproxy
- Der Aufstieg von LLM-basierter AI und Agenten-Workflows zerlegt nun diese ökonomische Logik von SaaS
- Der zentrale Treiber ist der rapide Verfall der Intelligenzkosten — bei gleichem Intelligenzniveau sinken die Kosten schnell
- Gleichzeitig steigen wegen zunehmender Inferenzkomplexität die gesamten Token-Ausgaben weiter an (auch wenn der Preis pro Token fällt)
- Angesichts des harten Wettbewerbs zwischen kapitalkräftigen Labs wie OpenAI, Google und Anthropic sowie Effizienzgewinnen in Hard- und Software dürfte sich dieser Trend nicht abschwächen
Deflationärer Druck auf AI-Services
- Wenn Agenten traditionelle manuelle Dienstleistungen ersetzen, wird die entsprechende Ausgabe nicht einfach übernommen; stattdessen kommt es zur Kommodifizierung der Dienstleistung
- Eine Leistung, für die vor einigen Jahren noch 100.000 US-Dollar bezahlt wurden, dürfte am Ende nur noch einen Bruchteil kosten
- Günstige AI erzeugt daher einen anhaltenden Deflationsdruck auf Vertical-AI-Produkte
- Funktionen wie Datenextraktion aus Dokumenten, die Bearbeitung eingehender Anrufe oder das Erstellen von Compliance-Berichten können heute noch starke Wedges sein, weil Infrastruktur und Know-how knapp sind und die Akzeptanz niedrig ist, werden aber bald zu Table Stakes
- In jeder Kategorie gibt es mehrere gut finanzierte, wachsende Startups, sodass Übermargen im Wettbewerb verschwinden werden
- Startups, die bis dahin keinen Burggraben aufgebaut haben, werden verdrängt
AI-Services vs. Software: Das Paradigma der Leistungserbringung
- Wenn die Grenzkosten von Intelligenz gegen null tendieren, verschiebt sich das zentrale Wertversprechen von Enterprise-Technologie von Werkzeugen zur Arbeitsunterstützung hin zur Lieferung arbeitsersetzender Ergebnisse
- Vertical AI kann mehr End-to-End-Workflows abdecken als Vertical SaaS allein und erschließt dadurch deutlich höheren Kundennutzen und Zahlungsbereitschaft sowie wesentlich größere Budgets
- Dennoch wird die aktuelle Mehrheitsmeinung nicht geteilt, wonach die Bereitstellung als Service — also eine Kundenbeziehung ähnlich zu einem externen Anbieter statt einer internen Plattform — das dominante Paradigma von AI-Software sei
Ein wachsender TAM hebt nicht alle Startups
- Durch den drastischen Fall der Intelligenzkosten erweitert sich der TAM für AI-Services erheblich, doch diese Ausweitung der Chance landet nicht zwingend an derselben Stelle der Wertschöpfungskette
- Beispiel Tabellenkalkulation und Rechnungswesen: Nach der Einführung von Microsoft Excel (1987) sank die Zahl der Buchhalter und Rechnungswesen-Sachbearbeiter von rund 2 Millionen auf 1,5 Millionen, während die Zahl der Accountant- und Auditor-Rollen von rund 1,3 Millionen auf 1,5 Millionen sowie die der Management Analysts und Finance Manager von rund 600.000 auf 1,5 Millionen stieg (laut Morgan Stanley Research)
- Tabellenkalkulationen automatisierten Buchhaltung nicht nur, sondern verlagerten den Wert nach oben auf der Skill-Kurve — weg von repetitiver Arbeit hin zu höherwertiger Analyse
- Beispiel Uber und Ride-Hailing: Hier kam es nicht nur zu einer Umverteilung innerhalb der Wertschöpfungskette, sondern sogar zur Eliminierung ganzer Zwischenschichten
- Der globale Taximarkt wuchs von rund 69 Milliarden US-Dollar im Jahr 2019 auf etwa 271 Milliarden US-Dollar im Jahr 2024; vor Uber lag der traditionelle Taximarkt bei 30 bis 50 Milliarden US-Dollar
- Die gesamten Ausgaben für „ein Auto rufen und irgendwohin fahren“ stiegen innerhalb von 15 Jahren um etwa das 5- bis 8-Fache, während der Preis pro Fahrt ungefähr halbiert wurde (mit einer Erholung um 10–20 % nach dem Ende der VC-Subventionen)
- Historisch flossen die Erlöse an Eigentümer (Betreiber-Eigentümer, NYC-Medallion-Besitzer etc.), Broker (Taxiagenturen, Dispatcher, Garagen) und angestellte Fahrer
- Die meisten dieser Akteure wurden verdrängt, und Agenturerlöse wurden von Uber und Lyft absorbiert
- Der Preis eines NYC-Medallions stürzte von seinem Höchststand von rund 1 Million US-Dollar im Jahr 2013 auf heute unter 100.000 US-Dollar ab (mit ersten Anzeichen einer teilweisen Erholung durch staatliche Eingriffe)
Jevons-Paradoxon und Enterprise AI
- Dasselbe Jevons-Paradoxon spielt sich derzeit bei Enterprise AI ab
- Bei konstanter Modellqualität, konstantem Kontext und konstanter Inferenzkomplexität fallen die Kosten pro Intelligenzeinheit rapide
- Die Kosten für Inferenz auf GPT-3.5-Niveau sind zwischen November 2022 und Oktober 2024 um mehr als das 280-Fache gesunken
- 2023 war es noch teuer, alle eingehenden E-Mails eines mittelständischen Unternehmens per LLM lesen und klassifizieren zu lassen; heute kostet das nur noch etwa 0,40 US-Dollar pro Million Token und ist praktisch vernachlässigbar
- Mit AI-Coding-Tools werden derzeit 41 % des Codes AI-generiert oder AI-gestützt — was die Eintrittsbarrieren weiter senkt
- Die gesamten AI-Ausgaben steigen explosionsartig: Der Umsatz mit Enterprise AI wächst von 1,7 Milliarden US-Dollar im Jahr 2023 auf 37 Milliarden US-Dollar im Jahr 2025 — eine 22-fache Steigerung in zwei Jahren
- Die globalen AI-Ausgaben sollen 2026 mehr als 2,5 Billionen US-Dollar erreichen (IDC)
- Gartner hat seine Prognose, wann AI ein Drittel der gesamten IT-Ausgaben ausmachen wird, um zwei Jahre vorgezogen
- Die entscheidende Frage ist nicht, ob der Kuchen größer wird, sondern wer davon essen darf
Das Taxi-Dispatcher-Problem
- Es gibt die populäre These, dass AI Services („Service-as-Software“) das Gewinner-Geschäftsmodell seien
- Foundation Capital rahmt dies als 4,6-Billionen-US-Dollar-Chance: IT-Budgets entsprechen 1–2 % des BIP, Arbeit und traditionelle Services hingegen mehr als 15 %
- Die Logik lautet: Wenn AI die Arbeit von Accountants, Paralegals und Compliance-Analysten übernimmt, kann man nach den vollbelasteten Kosten dieser Mitarbeiter bepreisen
- Doch allein dadurch, dass man ein analoges Produkt liefert, lassen sich diese Budgets langfristig nicht abschöpfen
- Services sind ihrem Wesen nach kommodifizierbar
- Die meisten Startups, die mit dem Vertrieb von AI-Alternativen wachsen, besitzen nicht das IP (LLMs), das diese ökonomische Arbitrage ermöglicht — das besitzen die Labs
- Einfache Workflow-Orchestrierung, RAG und domänenspezifisches Finetuning sind keine nachhaltigen Burggräben
- AI-Anwendung des Taxi-Dispatcher-Problems: Vor Uber erfassten Taxi-Dispatch-Agenturen Margen durch Ride-Matching — mit gewissem Schutz durch die Bündelung von Angebot (lokale Fahrerdichte) und Nachfrage (lokale Bekanntheit)
- Als jedoch eine Plattform auftauchte, die Angebot und Nachfrage effizienter matchte, Fahrzeugbesitz nach außen verlagerte und das Angebot stark ausweitete sowie Nutzern niedrigere Preise bot, verschwand die Wettbewerbsfähigkeit der Dispatcher
- Die Dispatcher verloren nicht wegen Ubers Take Rate
- Uber nimmt im Schnitt rund 30 % der Fahrereinnahmen, also nicht wesentlich anders als die 30–50 %, die traditionelle Taxiagenturen, Medallion-Vermieter und Dispatcher zusammen abschöpften
- Ubers Burggraben bestand nicht darin, weniger abzuschöpfen, sondern darin, alle Vermittlungsfunktionen — Dispatch, Bezahlung, Matching, Reputation — in einer einzigen Plattform, die das Netzwerk besitzt, zu integrieren
- Wenn der Hauptwert eines AI-Service-Unternehmens lautet: „Wir liefern diesen Service mit LLMs günstiger“, dann ist es ein Dispatcher, der auf fremden Margen sitzt
- Diese Kostenkurve wird von Modell-Labs, Hyperscalern, Chipherstellern und Energieproduzenten kontrolliert
- Werden Modelle billiger oder verbindet sich ein Wettbewerber mit derselben Modell-API und unterbietet den Preis, tendiert der Kostenvorteil gegen null
- Weltweit gibt es derzeit rund 35.000 AI-Wrapper-Apps, also eine deutlich höhere Wettbewerbsintensität als in früheren Tech-Epochen
- Die Fähigkeit, einen Service günstig zu liefern, und die Fähigkeit, diese Marge zu behalten, sind zwei verschiedene Dinge — die Kernfrage lautet heute, wer den durch den Zusammenbruch der Intelligenzkosten entstehenden Konsumentenüberschuss dauerhaft abschöpfen kann
Eingebettetheit und Verteidigungsfähigkeit
- Unternehmen, die Verteidigungsfähigkeit jenseits der Kostenkurve aufbauen, können den Überschuss erfassen und halten
- Historische Quellen von Verteidigungsfähigkeit in Enterprise-Tech: Domänenexpertise, Geschwindigkeit und Umsetzung, Partnerschaften und Integrationen, Datengravitation, Marke und Vertrauen, Plattform-Lock-in
- In der Frühphase sind vor allem Domänenexpertise und Geschwindigkeit/Umsetzung relevant, aber diese Vorteile erodieren schnell
- Partnerschaften und Integrationen sind nachhaltiger, verlieren aber mit Skalierung an Relevanz
- Der wichtigste Burggraben in der Wachstumsphase sind Nutzung und Daten-Loops
- Ein auf Skalierung verteidigungsfähiges Vertical-AI-Geschäft braucht mindestens einen Burggraben aus Datengravitation, Marke/Vertrauen oder Plattform-Lock-in
- Die wichtigste Achse zur Bewertung von Vertical-AI-Geschäften ist nicht „Service vs. Software“, sondern „intern vs. extern“
- „Intern“ bedeutet nicht zwingend eine klassische SaaS-Oberfläche, in die sich der Kunde täglich einloggt — der alte Branchenkonsens, wonach Wert direkt mit Tastaturzeit korreliert, gilt nicht mehr
- Die Kernfrage lautet: Ist das AI-Unternehmen auf eine Weise in die Kundenabläufe strukturell schwer entfernbar eingebettet?
- Besitzt es proprietäre, vom Kunden erzeugte Daten? Verbindet es den Kunden mit Gegenparteien, Lieferanten oder dem Ökosystem so, dass eine Neuverkabelung schmerzhaft wäre? Ist es in benachbarte Workflows integriert, sodass seine Entfernung Kettenunterbrechungen auslösen würde?
- „Extern“ ähnelt einem traditionellen Service-Anbieter — der Kunde ruft ihn bei Bedarf auf, kann aber nächste Woche wechseln, wenn es anderswo ein besseres Angebot gibt
- Externe Lösungen liefern realen Wert und können schnell wachsen, solange der Kostenabstand groß und die Adoption früh ist, stehen aber auf geliehenen Margen und sind dadurch derselben Wettbewerbsdynamik ausgesetzt wie andere AI-Services-Startups, gut finanzierte SaaS-Incumbents oder sogar die Käufer selbst
Quadranten-Framework: Bewertungsmatrix für Vertical AI
- Die Vertical-AI-Landschaft lässt sich über zwei Achsen abbilden: intern vs. extern (Tiefe der Einbettung in die Kundenabläufe) und Wedge vs. Plattform (Produktbreite und -tiefe)
- Durable (oben rechts): interne AI-Plattformen — Systeme aus Intelligenz und Aktion mit klarem Pfad zu zusammengesetzten Burggräben; sie entwickeln sich von einem initialen Wedge zu Multi-Produkt-Plattformen. Abridge und EvenUp sind typische Beispiele
- Rare (oben links): externe Plattformen — hohe ACVs mit Consulting-Charakter, die oft interne AI-Produkte dogfooden. Aufgrund hoher Kundenkonzentration und begrenzter Einbettung sind sie instabil
- Commodity Risk (unten links): externe Wedge-Produkte — mit extrem hohem Frühphasen-Wachstumspotenzial, aber existenziellem Risiko, weil sie auf geliehenen AI-Margen konkurrieren
- Precarious (unten rechts): interne Wedges — mit hohem frühem Wachstumspotenzial und der Möglichkeit, zu verteidigungsfähigen Plattformen auszubauen, aber mit Risiko der Wedge-Kopie durch AI-führende Incumbents
- Zwei wertvolle Übergangspfade: extern→intern (tiefere Einbettung) und Wedge→Plattform (Aufbau von Produktbreite)
- Wedge→Plattform ist das bewährte Modell zum Aufbau nachhaltiger Vertical-Software
- Einige Startups beginnen mit einem externen, hochskalierbaren AI-Services-Wedge und versuchen beide Übergänge gleichzeitig
Vertical AI: Die Bastion gegen Kommodifizierung
- Vertical AI ist deshalb so stark, weil die einzigartigen Dynamiken jeder Branche einen fruchtbaren Boden für differenzierte Lösungen schaffen, die tief in Kundenabläufe eingebettet sind
- Die besten Vertical-SaaS-Unternehmen (Veeva, Procore, Toast, ServiceTitan usw.) gewannen nicht, weil sie billiger waren, sondern weil sie zu Systems of Record wurden, die die spezifischen Bedürfnisse ihrer Nutzer präziser abbildeten
- Man kann Salesforce oder NetSuite mit Beratung für Millionen von Dollar anpassen, doch wenn es ein System gibt, das von Anfang an für einen selbst gebaut wurde, ist das unnötig
- Solche Systeme sammeln proprietäre Branchen- und First-Party-Daten an (klinische Studiendaten, Arbeitskostendaten, Restaurant-Umsatzdaten) und werden mit jeder Nutzung besser
- Sie verbinden fragmentierte, vertikal spezifische Ökosysteme (Pharmafirmen–Studienzentren, Generalunternehmer–Subunternehmer, Restaurants–Liefernetzwerke) und schaffen so einen Netzwerkeffekt-Burggraben
- Der Wedge kann ein günstiger gelieferter Service sein, doch der Burggraben ist das System, das darauf aufgebaut wird — indem man die interne Positionierung nutzt, um proprietäre Daten, Netzwerkeffekte, eine Multi-Produkt-Plattform und ein Branchen-„Gehirn“ aufzubauen und so nicht nur ein Vendor, sondern abhängige Infrastruktur zu werden
- Wer diesen Sprung nicht schafft und ein externer AI-Service-Anbieter im Preiswettbewerb bleibt, erleidet das Schicksal des Taxi-Dispatchers — er sieht zu, wie der Markt um 500 % wächst, während die Marge gegen null tendiert
Die Gewinner umarmen Kommodifizierung
- Eine Einsicht eines Gründers bei einer Roundtable-Diskussion von Vertical Collective: „Viele sehen das Rennen zum Boden als etwas Schlechtes, wir sehen es genau umgekehrt — der wahre Schlüssel ist neue Wertschöpfung“
- Reiner Preiswettbewerb ist fatal, als bewusster Wedge zur Erlangung der Positionierung, die zum Aufbau der oben beschriebenen Burggräben nötig ist, kann er jedoch sehr wirksam sein
- Manche Vertical-AI-Startups sollten den Preisverfall durch die Kommodifizierung von AI-Services bewusst annehmen und beschleunigen
- Eine große Zahl von Kunden mit schockierend niedrigen Preisen gewinnen, die traditionelle Anbieter nicht mitgehen können
- Dabei zwar die Umsatzchance pro Kunde für „Ergebnisse“ kannibalisieren, aber schnelles Wachstum, Branchenvertrauen und das Recht gewinnen, Kunden auf andere Weise zu bedienen
- Die Position nicht konkurrenzfähiger Marktführer schwächen und ein Wettbewerbsvakuum schaffen, um die Pole Position für Expansion zu besetzen
- Diese Strategie ist eine Variante der Strategie „Nuking Pricing Power“: Eine günstige (oder kostenlose) Version eines Komplements entwickeln und fördern, um schnelle Adoption auszulösen und die Preissetzungsmacht des Komplements zu schwächen
- Einfacher gesagt: Wenn ein Produkt ohnehin kommodifiziert wird, ist es besser, den Markt selbst zu kommodifizieren und zu erobern
Die Value Hypothesis
- Jeder Paradigmenwechsel in Enterprise-Technologie bringt Landnahme und Restrukturierung mit sich
- Cloud Computing brachte zwischen 2005 und 2015 Tausende SaaS-Startups hervor, doch die meisten wurden absorbiert, per M&A zusammengeführt oder verschwanden; nur wenige stiegen zu nachhaltigen, kategoriedefinierenden Plattformen auf
- Für Vertical AI wird dasselbe Muster erwartet, aber mit größerer Marktchance, schnellerem Wachstum, kreativeren Monetarisierungsmodellen und höherer anfänglicher Kapitaleffizienz — und gerade deshalb mit beispielloser Wettbewerbsintensität
- Die Falle für AI-Services-Gründer besteht darin, einen skalierbaren Wedge mit einem verteidigungsfähigen Geschäft zu verwechseln
- Bestand haben jene Unternehmen, die das heutige Zeitfenster — großer Kostenabstand, frühe Adoption, langsame Incumbents — nutzen, um so tief in die Kundenabläufe eingebettet zu werden, dass ein Wechsel nicht nur unpraktisch, sondern strukturell schmerzhaft ist
- Das ist keine neue Idee, sondern die Wiederentdeckung der ältesten Idee der Enterprise-Software
- Neu ist nur die Oberfläche: SaaS-Unternehmen konnten sich in einige Workflows einbetten und Daten über Benutzerinteraktionen erfassen; AI-native Plattformen können sich in alle Workflows einbetten, Daten aus jeder Interaktion unabhängig von menschlicher Präsenz erfassen und durch Ausführung eine zusammengesetzte Intelligenz aufbauen, die das Produkt verbessert
- Die Chance, „load-bearing infrastructure“ zu bauen, war nie größer — ebenso wie die Versuchung, sich damit zufriedenzugeben, nur ein „günstigerer Anbieter“ zu sein
- Andy Rachleffs „Value Hypothesis“ besagt: Die Hypothese eines Startups darüber, was es wem wie anbietet, ist beim ersten Versuch „fast nie richtig“ — Gründer müssen nicht Menschen finden, die Interesse bekunden, sondern Kunden, die ihr Produkt wirklich dringend brauchen
- Kunden interessieren sich immer für einen günstigeren Service, aber wofür sie wirklich zahlen und was sie behalten wollen, ist ein System, das ihr Geschäft besser versteht als sie selbst — ein System, das institutionelles Wissen akkumuliert, sie mit ihrem Ökosystem verbindet und dessen interner Wert mit jeder Interaktion steigt
Hinweise
- Wenn AI menschliche Arbeitskräfte effizienter macht, ist das von Salesforce popularisierte sitzbasierte SaaS-Modell nicht mehr tragfähig — je besser das Produkt, desto geringer die Ausgaben des Kunden
- Wenn autonome Agenten den Zweck haben, Vertragsentwürfe zu schreiben, Support-Tickets zu lösen oder Finanz-Hauptbücher ohne nennenswerte menschliche Eingriffe abzugleichen, ist „Screen Time“ bedeutungslos
- Im neuen Paradigma kann Effizienz über die Abwesenheit von Screen Time definiert werden
- Selbst die UI wird austauschbar: Die „Entscheidungsschicht“ aus Daten, Aktionen und Datensätzen bleibt wichtig, aber wir bewegen uns in eine Welt, in der kein Kunde dieselbe UI hat
- Interfaces, die die Plattform für jeden Nutzer individuell automatisch erzeugt („inception software“)
- Agentische Ansätze über MCP oder „Bring Your-Own UI“ (BYOUI) über von LLMs generierte Custom-Apps
Noch keine Kommentare.