- In einer Zeit, in der AI sämtliche Software schreibt, wird Software überleben, die Tokens (Inference-Kosten) spart – durch evolutionären Selektionsdruck
- Mit der Formel für die Survival Ratio lässt sich die Fitness von Software messen; überlebensfähig ist sie nur, wenn die eingesparte Kognition die kognitiven Kosten übersteigt (also über 1 liegt)
- Tools wie Git und grep sind Beispiele dafür, dass eine Neuerstellung durch AI wegen Insight Compression und Substrate Efficiency absurd teuer wäre
- Damit Agenten ein Tool übernehmen, sind Awareness und minimale Friction essenziell; ein Design entlang von Desire Paths ist dabei wirksam
- Auch in einer AI-zentrierten Ära wirkt der Human Coefficient: Bereiche, in denen menschliche Eingriffe und Vorlieben direkten Wert schaffen, werden weiter überleben
Hintergrund: Software-Prognosen im AI-Zeitalter
- Seit Juni 2024 mit Death of the Junior Developer, der Vorhersage der Ankunft von Orchestratoren vor 10 Monaten und Projekten wie Gas Town fortlaufend die Entwicklungskurve von AI richtig eingeschätzt
- Entwicklung von Gas Town durch Extrapolation des Verlaufs: Code-Autovervollständigung 2023 → konversationelle Interfaces 2024 → Agenten Anfang 2025 → Orchestrierung Anfang 2026
- Grundlage aller Vorhersagen ist die Haltung, exponentiellen Entwicklungskurven unverändert zu vertrauen
- Es wird der Richtung vollständig vertraut, die Dario Amodei und Andrej Karpathy zur Zukunft von Software beschrieben haben
- Gas Town ist ein Beispiel dafür, dass diese Extrapolation tatsächlich funktioniert: Mit Modellen von Ende 2025 und zahlreichen provisorischen Ergänzungen wurde zuerst eine gerade noch tragfähige Form bestätigt
Das bedrohte Software-Ökosystem
- Der Druck auf SaaS-Unternehmen nimmt zu, da sich die Kostenstruktur von Buy-vs-Build verschiebt und Fachabteilungen zunehmend per Vibe Coding ihre eigenen SaaS-Lösungen erstellen
- Noch vor nur drei Jahren tat sich GPT-3.5 selbst mit einer einzelnen Funktion schwer; heute lassen sich kleine, aber real wertstiftende SaaS-Produkte direkt erzeugen
- Stack Overflow und Chegg wurden zuerst getroffen; danach breitete sich der Druck auf Tier-1-Kundensupport-Software, Low-Code-/No-Code-Systeme, Content-Erstellungstools und verschiedenste Produktivitätswerkzeuge aus
- Auch IDE-Anbieter spüren seit dem Erscheinen von Claude Code zunehmend Wettbewerbsdruck
- Da Prognosen von AI-Forschern über etwa 40 Jahre hinweg eine hohe Genauigkeit gezeigt haben, sollte man sich darauf vorbereiten, dass potenziell alle Softwarebereiche bedroht sind
Das Modell des Selektionsdrucks (Selection Argument)
- Inferenz benötigt Tokens, Tokenverbrauch führt zu Energieeinsatz, und Energie lässt sich direkt in Kosten umrechnen
- {Tokens, Energie, Geld} können als dieselbe Ressourcenbeschränkung behandelt werden und sind stets begrenzt
- Die einfache Regel Software, die kognitive Kosten senkt, überlebt prägt das gesamte Software-Ökosystem
- Die Struktur ist identisch mit evolutionärem Selektionsdruck, bei dem sich in einer Umgebung begrenzter Ressourcen jene Einheiten durchsetzen, die Ressourcen effizienter nutzen
Formel der Survival Ratio
- Survival(T) ∝ (Savings × Usage × H) / (Awareness_cost + Friction_cost)
- Savings: die durch ein Tool eingesparten kognitiven Kosten, also die gesparte Tokenmenge gegenüber einer vollständigen Synthese derselben Funktion von Grund auf
- Usage: Häufigkeit und Anwendungsbreite, mit der das Tool in unterschiedlichen Situationen wiederholt eingesetzt werden kann
- H (Human Coefficient): ein Koeffizient, der Nachfrage abbildet, die unabhängig von Effizienz Wert auf von Menschen Geschaffenes legt
- Awareness_cost: die Energie, die ein Agent aufwenden muss, um die Existenz des Tools zu kennen, es zu erinnern und im passenden Moment auszuwählen
- Friction_cost: die Energie, die im tatsächlichen Einsatz durch Fehler, Fehlschläge, Wiederholungen und Missverständnisse verbraucht wird
- Die minimale Überlebensschwelle ist 1; in Wettbewerbsumgebungen ist ein deutlich höheres Verhältnis erforderlich
- Beispiel: Ein Tool mit einer Survival Ratio von 1,2 kann von einem konkurrierenden Tool mit 2,5 verdrängt werden
Hebel 1: Insight Compression
- Die Softwareindustrie komprimiert Wissen, das über lange Zeit angesammelt wurde und viel zu teuer neu zu entdecken wäre, in wiederverwendbare Formen
- Git ist das Paradebeispiel: Commit-DAG, Refs als Pointer, der Index, reflog usw. sind Strukturen, in denen jahrzehntelanges Trial-and-Error verdichtet ist
- Wenn AI das von Grund auf neu implementieren müsste, müsste sie dieselbe intellektuelle Geschichte erneut durchlaufen – ökonomisch völlig irrational
- Dasselbe Prinzip gilt für Datenbanken, Compiler, Betriebssysteme, Workflow-Engines und Monitoring-Systeme
- Kubernetes ist nicht deshalb komplex, weil das Design unnötig kompliziert wäre, sondern weil verteilte Systeme an sich komplex sind
- Temporal bietet durable execution, weil die direkte Implementierung des Saga-Patterns zusammen mit idempotenten Retries faktisch einem Forschungsprojekt nahekommt
- Gemeinsames Merkmal starker Software ist eine so hohe Dichte an Einsicht, dass schon der Versuch einer Neusynthese absurd wirkt
- Auch das Charakter-Rollenmodell in Gas Town oder Verben wie
gt sling sind Beispiele dafür, komplexe Konzepte in kurze, leicht merkbare Ausdrücke zu komprimieren
Hebel 2: Substrate Efficiency
- grep ist ein weiteres Beispiel, bei dem eine Neuerfindung nahezu Wahnsinn wäre
- Obwohl es so einfach ist, dass Ken Thompson es an einem halben Nachmittag bauen konnte, spart es durch CPU-basierte Verarbeitung enorme kognitive Kosten
- Beim Text-Pattern-Matching übertrifft die CPU die GPU um mehrere Größenordnungen
- Die Multiplikationsweise eines LLM setzt Pattern-Matching so zusammen, dass zunächst etwas wie „ungefähr 94“ geschätzt und danach über gemerkte Lookup-Tabellen die Stellenzahl korrigiert wird
- Diese Berechnung läuft vollständig auf dem extrem ineffizienten Substrat der GPU-Inferenz
- Taschenrechner, Parser, komplexe Transformationstools wie ImageMagick und viele Unix-CLI-Utilities nutzen diesen Hebel intensiv
- Durch gute Algorithmen oder das Verschieben von Berechnung auf billigere Substrate wie CPU oder Mensch lassen sich Tokens und Energie sparen
Hebel 3: Broad Utility
- Entspricht dem Faktor Usage im Modell der Survival Ratio
- Je breiter das Einsatzspektrum, desto stärker verteilen sich Awareness-Kosten und desto niedriger wird die notwendige Schwelle an eingesparten Tokens pro Nutzung
- Wirklich allgemeine Token-Spar-Tools werden, selbst wenn AI sie theoretisch nachbauen könnte, von bereits überall vorhandenen und breit genutzten Optionen verdrängt oder übertroffen
- Temporal bietet trotz relativ hoher Awareness- und Friction-Kosten ein so universelles Workflow-Modell wie PostgreSQL
- Es besitzt alle drei Hebel: aggressive Insight Compression, geschickte Nutzung des Rechensubstrats und breite Nützlichkeit
- Dolt ist eine mit Git versionierte Datenbank und ein seit 8 Jahren gepflegtes Open-Source-Projekt
- In agentenbasierten Produktions- und DevOps-Workflows wurde verspätet eine Killer App gefunden
- Selbst wenn Agenten in Produktionsumgebungen Fehler machen, sind mit dem vollen Funktionsumfang von Git Rollback und Rollforward möglich
- Code-Suchmaschinen gewinnen stark an Bedeutung, weil LLMs 10- bis 100-mal mehr Code als bisher erzeugen
- Es entsteht eine große allgemeine Nische, ein Bereich, der „zu groß für grep“ ist
- Weil sie nichttriviale Probleme mit schwer auffindbaren Edge Cases lösen, günstige Rechensubstrate nutzen und breit anwendbar sind, erfüllen sie alle drei Hebel
Hebel 4: Publicity
- Kognitive Einsparung allein reicht nicht; gelöst werden muss auch das Awareness-Problem, also die Frage vor der Auswahl
- Dolt besaß Hebel 1 bis 3, wurde aber anfangs nicht breit genutzt, weil Hebel 4 fehlte
- Es gibt verschiedene Wege, Awareness-Kosten zu bezahlen
- Ein großartiges Produkt bauen, populär werden und dann darauf warten, über die Community natürlich in Trainingsdaten aufgenommen zu werden
- Oder Geld investieren und in Dokumentation für Agenten oder Werbung investieren
- Noch direkter ist die Zusammenarbeit mit Verantwortlichen in Frontier Labs wie OpenAI, Anthropic und Google, um Tools in den Modelltrainingsprozess einzubringen
- Als bezahlter Service können Eval-Sets erstellt werden, die sowohl korrekte Nutzung als auch Missbrauch des Tools zeigen, worauf Forschende das Training anpassen
- Das Konzept von SEO für Agenten tritt nun ernsthaft auf den Plan
- Wenn große Budgets nicht möglich sind, muss man sich auf die Energie der Nachauswahlphase, also Hebel 5, stützen und Tools so agentenfreundlich wie möglich gestalten
Hebel 5: Friction minimieren
- Wenn Awareness ein Problem der Vorauswahl ist, dann ist Produkt-Friction ein Problem nach der Nutzungsauswahl
- Agenten verhalten sich, als stünden sie permanent unter Zeitdruck, und versuchen bei Hindernissen sofort Ausweichrouten
- Schon geringe Friction kann das Urteil kippen, sodass statt eines effizienteren Tools auf weniger effiziente, aber vertraute und vorhersagbare Methoden zurückgefallen wird
- Umgekehrt werden Tools, die exakt auf die Präferenzen passen, von Agenten geradezu hartnäckig wiederverwendet
- Der Dokumentationsansatz verschiebt Awareness-Kosten nicht in die Trainingsphase, sondern bis zum Inferenzzeitpunkt
- Was das Tool gut kann, wann und warum man es einsetzen sollte, ein Quickstart und Pfade zu weiterführender Dokumentation werden direkt in den Kontext injiziert
- Die bessere Lösung ist jedoch, das Tool selbst so zu bauen, dass es sich für Agenten intuitiv anfühlt
- Ein Beispiel für Desire-Paths-Design ist Beads: Über 4 Monate entwickelte sich die CLI durch mehr als 100 Subcommands, viele Sub-Subcommands, Aliasse und alternative Syntaxformen
- Diese komplexe CLI ist nicht für Menschen, sondern für Nutzungsmuster von Agenten entworfen
- Durch Beobachtung der Vorgehensweise von Agenten wurden Halluzinationen als reale Features implementiert, sodass inzwischen fast jede Vermutung direkt funktioniert
- Hallucination Squatting ist eine Technik, bei der häufig von LLMs halluzinierte Domainnamen zurückverfolgt und registriert werden, damit dort Artefakte abgelegt und tatsächlich heruntergeladen werden
- Das zeigt, dass selbst staatlich unterstützte Hackergruppen Agent UX verstehen und ausnutzen
- Agent UX ist entscheidend wichtig, wird aber in den meisten Tools noch ignoriert
- Ideale Tools ähneln anderen Tools, mit denen Agenten bereits vertraut sind, oder lösen Probleme genau in der Art, wie Agenten darüber nachdenken wollen
Hebel 6: Human Coefficient
- Es gibt Software, die unabhängig von Token-Effizienz Wert daraus bezieht, dass Menschen daran beteiligt waren
- Wert entsteht aus menschlicher Kuratierung, sozialem Beweis, Kreativität, physischer Präsenz oder Zustimmung
- Von Menschen zusammengestellte Playlists können AI-generierte Playlists mit gleicher Qualität und höherer Energieeffizienz schlagen
- Im Gaming gewinnen Umgebungen mit echten Menschen meist; nur wenige wollen ausschließlich gegen AI spielen, die Menschen offensichtlich überlegen ist
- Soziale Netzwerke, die Agenten ausschließen, könnten gerade deshalb attraktiver wahrgenommen werden
- Selbst wenn AI die besten Lehrkräfte hervorbringt, werden manche Menschen absichtlich menschliche Lehrkräfte wählen
- Auch in Bereichen mit hohem Human Coefficient ist der Wettbewerb hart
- In Karpathys Welt können Agenten für jeden alles sein und besitzen inhärent starkes Suchtpotenzial
- Insgesamt ist es gut möglich, dass extrem ineffiziente, aber mit sehr hohem H-Wert versehene Software in großer Zahl existieren wird
Gründe für Hoffnung
- Software, die zwischen Menschen und AI vermittelt oder die Rolle übernimmt, so zu tun, als wäre sie smart, obwohl AI dies bald direkt leisten kann, ist strukturell gefährdet
- Trotzdem ist die Menge an Software, die geschrieben werden muss, faktisch unendlich
- Heilung aller Krankheiten, Modellierung des Verhaltens aller Proteine, Exploration aller planetaren Szenarien bleiben weiterhin Ziele
- Menschlicher Ehrgeiz übersteigt stets die verfügbare kognitive Kapazität, und selbst wenn Token-Kosten fallen, rücken wir sofort zur nächsten Frontier vor
- Probleme der Aufmerksamkeit wurden bereits mehrfach gelöst – von Print über Internet und Social Media bis zu Echtzeitwerbung und Aggregatoren
- Desire-Paths-Design funktioniert tatsächlich, und auch ohne riesige Trainingsbudgets wie bei OpenAI lassen sich Tools bauen, die Agenten ganz natürlich verwenden wollen
- Der Human Coefficient existiert eindeutig, und Menschen beginnen bereits, Ermüdung gegenüber Dingen zu spüren, die stark nach Agenten riechen
- Wenn man mit Fokus auf menschliche Verbindung und Kreativität gestaltet, konvergiert das Problem am Ende wieder in den Bereich klassischen Marketings und Brandings
- Die sechs Hebel eröffnen verschiedene Überlebenspfade
- Wer etwas baut, dessen Neuentwicklung sich schon im Ansatz verrückt anfühlt, und es leicht auffindbar und leicht nutzbar macht, hat eine ausreichend robuste Chance
Noch keine Kommentare.