- Da AI-Tooling die Kosten und den Personalbedarf in der Softwareentwicklung stark senkt, wird die Frage zentral, worin die Eintrittsbarriere von Software-Businesses eigentlich noch besteht
- Jetzt, da AI den Großteil von Transformationsarbeit ersetzen kann, bleiben nur noch von Menschen erzeugte Daten aus der realen Welt als einziger Burggraben (
moat), den Agenten-AI nicht kopieren kann
- Der Datenmarkt spaltet sich auf (bifurcation) in „menschlich erzeugte Daten“ und „AI-generierte Daten“; der Wert der ersten steigt, während die zweiten zur Commodity werden
- Einfache Transformationssoftware (Workflows wie Excel → PDF → E-Mail) kann durch Agenten-AI ersetzt werden, aber großskalige kontinuierliche Datenerfassung und Systems of Record sind nicht ersetzbar
- API-Parität (Funktionsgleichheit über UI, REST und MCP hinweg) sowie der Aufbau von Metadaten werden künftig zur zentralen Wettbewerbsstärke im Software-Business
Der Wandel des Software-Burggrabens im AI-Zeitalter
- LLM-basiertes Tooling hat die Entwicklung komplexer Software dramatisch vereinfacht, aber nicht vollständig gelöst
- Es braucht weiterhin Orchestratoren (Menschen, die wissen, was gebaut werden soll); diese Rolle liegt nicht nur in technischer Kompetenz, sondern an der Schnittstelle von Produktmanagement, Customer Development und Engineering
- Was früher 10 Personen brauchte, um etwas Relevantes zu bauen, bewegt sich heute in Richtung 3, 2 oder sogar 1 Person
- Wenn sich Softwareprodukte leicht ausrollen und warten lassen, werden bisherige Burggräben (Schwierigkeit der Entwicklung, Produktisierung von Domänenwissen usw.) weitgehend durch AI ersetzt
Die große Datenspaltung (The Great Data Bifurcation)
- Die Datenwelt verzweigt sich in zwei Richtungen
- Von Menschen erzeugte Daten: Podcast-Episoden, Videos, Social-Media-Posts, Blogbeiträge und andere Inhalte, die direkt von Menschen erstellt wurden
- AI-generierte Daten: AI-Bilder, synthetische TTS-Stimmen, vollständig AI-produzierte Videos, von Agenten verfasste Spam-E-Mails usw.
- Menschliche Daten gewinnen durch Knappheit und Einzigartigkeit an Wert, während AI-generierte Daten mit schnelleren und billigeren Modellen zur Commodity werden
- Menschliche Daten enthalten das gesamte Wissen, über das nur ihr Erzeuger verfügt; deshalb ist genau diese Person die einzige Instanz, die diese Daten erzeugen kann
- Da AI per Definition keine menschlich erzeugten Daten schaffen kann, bleiben menschlich erzeugte, validierte und bereinigte Daten aus der realen Welt in den kommenden zehn Jahren der einzige verlässliche Burggraben für Software-Gründer
Fallbeispiel Podscan: der Burggraben in der Praxis
- Der zentrale Wert des Podcast-Monitoring-Dienstes Podscan liegt nicht in der Geschwindigkeit beim Einsammeln von RSS-Feeds oder bei API-Antworten
- Der eigentliche Wert liegt in den Daten aus 50 Millionen transkribierten Podcast-Episoden sowie deren AI-Analyse (Keywords, Themen, Sentiment-Analyse)
- Der entscheidende Mehrwert besteht darin, öffentliche Daten (Podcast-Episoden) zu sammeln und sie in transkribierter, transformierter und zugänglicher Form bereitzustellen
- Das lässt sich für Brand-Mention-Tracking, die Erkennung von Echtzeittrends oder die Bewertung von Podcast-Sponsoring nutzen
- Je höher Genauigkeit (fidelity) und Aktualität (freshness) der Daten sind, desto größer ist auch der wahrgenommene Kundennutzen
- Selbst wenn die UI umständlich ist oder die API Einschränkungen hat, finden Kunden einen Weg zum Zugriff auf die Daten — entscheidend sind die Daten selbst
- Würde Podscan nur eine Funktion anbieten, die eine URL entgegennimmt und dann transkribiert und analysiert, ließe sich das als Skill in Claude Code innerhalb von 2 Stunden ersetzen
- Würde man das Einsammeln, Transkribieren und Analysieren von 50.000 Episoden pro Tag per Agent abwickeln, lägen allein die API-Kosten bei mehreren Zehntausend Dollar pro Tag und wären praktisch untragbar
Die Verwundbarkeit von Transformationssoftware
- Reine Transformationssoftware, die Eingabedaten annimmt, verarbeitet und als Ausgabe zurückgibt, ist gegenüber Agenten-AI verwundbar
- Beispiel: „ChatGPT, erstelle mit dieser Excel-Datei einen Report, exportiere ihn als PDF und verschicke ihn per E-Mail“ — das kann autonom und ohne externen Dienst ausgeführt werden
- Excel-Parsing, Analyseabfragen, PDF-Rendering und E-Mail-Versand kann die AI selbst implementieren oder auf bestehende Implementierungen zurückgreifen
- SaaS-Businesses für Workflows wie Excel → Report → E-Mail werden damit nicht länger gebraucht
- Dagegen ist großskalige kontinuierliche Datenerfassung ein Bereich, den Agenten nur schwer ersetzen können
- Agenten existieren nur sitzungsweise (Cursor, Claude Code, ChatGPT-Konversationen usw.) und haben deshalb einen temporären Charakter
- Dauerhaft laufende Scan- und Arbeitsagenten verbrauchen so viele Tokens, dass sie ökonomisch unrealistisch sind
API-First als Geschäftsstrategie
- Für heutige Software-Businesses ist eine API-First-Strategie eine der klügsten Entscheidungen
- MCP ist nur eine zusätzliche Schicht über bestehenden REST-APIs; programmatischer Zugriff, MCP, API und Webhooks haben alle dieselbe Essenz: eine stabile Verbindung zwischen Computern
- Unter Gründern steigt die Nachfrage nach Funktionsparität zwischen UI und API
- Je vollständiger alles, was in der UI möglich ist, auch identisch per API möglich ist, desto wahrscheinlicher ist die Produktadoption durch Kunden
- Im Agenten-Zeitalter wird Automatisierbarkeit zu einem Schlüsselfaktor bei Kaufentscheidungen
- Podscan betreibt eine Platform-Parity-Tracking-Datei
- Für jede Funktion wird tabellarisch gepflegt, ob sie in UI, REST API und MCP unterstützt wird
- Ein Claude-Code-Subagent analysiert die Codebasis und aktualisiert diese Datei regelmäßig
- Enthalten sind einfache Funktionen wie „Podcast-Suche“ ebenso wie komplexe Abläufe wie „Keyword-Alert für Brand Mentions → zur Liste hinzufügen → Webhook auslösen“
- Menschliche Nutzer, Computer-Nutzer und Agenten-Nutzer müssen alle drei gleichwertig bedient werden
Metadaten sind der Burggraben
- Der Daten-Burggraben ist nicht auf Podcast-Daten beschränkt
- Metadaten, die bei der Nutzung einer Plattform gesammelt werden (Veröffentlichungszeiten, Zeitfenster mit hoher Interaktion, Inhalte mit hoher Engagement-Wirkung usw.), bilden einen einzigartigen Daten-Burggraben
- Beispiel: Bei einem Posting-Tool für Twitter oder Facebook sind Daten zu Verhaltensmustern der Nutzer der eigentliche Burggraben
- Datenbesitz ist die eine Hälfte des Burggrabens, sie zugänglich zu machen die andere Hälfte
- Die zentrale Aufgabe besteht darin zu erkennen, welche internen Datenquellen mit zusätzlichem Wert das eigene Produkt besitzt, und diese verknüpf- und zugänglich zu machen
2 Kommentare
So wie das Training von AlphaGo mit den Daten aus AlphaGo-gegen-AlphaGo-Selbstpartien erfolgte, wird auch das Training von LLMs mit von LLMs erzeugten Daten durchgeführt. Wenn schon ein paar Datensamples ausreichen, um weitere Daten leicht zu erzeugen, ist auch das kaum als sicherer Burggraben zu betrachten.
Es scheint auch ein Unterschied zwischen Reinforcement Learning und Deep Learning zu sein. Dort, wo keine entscheidende Feedback-Schleife bereitgestellt werden kann, scheinen menschliche Daten bislang noch der Burggraben zu sein.