27 Punkte von GN⁺ 2025-12-15 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Der Venture-Capital-Geber a16z hat in einem Bericht die wichtigsten Trends der Technologiebranche im Jahr 2026 prognostiziert; enthalten sind die Einschätzungen der Investment-Partnerteams aus den Bereichen Infrastruktur, Growth, Bio & Health, Speedrun, amerikanische Dynamik, Apps und Krypto
  • AI-Agenten werden die Unternehmensinfrastruktur grundlegend neu gestalten, wobei die Aufbereitung multimodaler Daten und agent-native Infrastruktur zu zentralen Aufgaben werden
  • In Unternehmenssoftware nimmt die Bedeutung von Systemen der Aufzeichnung (System of Record) ab; stattdessen erfolgt der Übergang zu autonomen Workflow-Engines, in denen AI Daten direkt liest, schreibt und Schlussfolgerungen zieht
  • Stablecoins werden sich als gängiges Zahlungsmittel etablieren, während die Ausgabe von Onchain-Assets und Privacy-Blockchains als Unterscheidungsmerkmale hervorstechen
  • Personalisierte AI-Services werden in Bildung, Gesundheit und Medien maßgeschneiderte Erlebnisse für die breite Masse liefern; prognostiziert wird ein „Year of Me“

# [Infrastructure]

Startups, die das Chaos multimodaler Daten bändigen - Jennifer Li

  • Die unstrukturierten und multimodalen Daten in Unternehmen sind der größte Engpass bei der Einführung von AI und zugleich der am wenigsten genutzte Vermögenswert
    • PDFs, Screenshots, Videos, Logs, E-Mails und semistrukturierte Daten sammeln sich im gesamten Unternehmen an
    • Die Modellleistung verbessert sich schnell, aber die Eingabedaten werden immer chaotischer
    • Dadurch entstehen Halluzinationen in RAG-Systemen sowie subtile und teure Fehler von Agenten
    • Zentrale Arbeitsabläufe hängen weiterhin stark von menschlicher QA ab
  • Der begrenzende Faktor für AI-Unternehmen verlagert sich von Compute zu Datenentropie
    • In Umgebungen mit unstrukturierten Daten zerfallen Aktualität, Struktur und Wahrheitsgehalt fortlaufend
    • Rund 80 % des Unternehmenswissens befinden sich in diesem unstrukturierten Bereich
  • Die Erschließung unstrukturierter Daten wird zu einer Generationschance
    • Erforderlich ist ein System, das multimodale Daten fortlaufend ordnet, strukturiert, validiert und governiert
    • Nur so können nachgelagerte AI-Workloads tatsächlich vertrauenswürdig funktionieren
  • Der Anwendungsbereich weitet sich auf nahezu alle Enterprise-Workflows aus
    • Vertragsanalyse, Onboarding, Schadensbearbeitung, Compliance, Kundensupport, Beschaffung
    • Engineering-Suche, Vertriebsunterstützung, Analyse-Pipelines
    • Eingeschlossen sind alle Agenten-Workflows, die von vertrauenswürdigem Kontext abhängen
  • Entscheidend ist die Plattformschicht
    • Sie extrahiert Struktur aus Dokumenten, Bildern und Videos
    • Sie gleicht Datenkonflikte ab und stellt Pipelines wieder her
    • Sie hält Daten aktuell und jederzeit durchsuchbar
    • Sie beherrscht den Kern von Unternehmenswissen und -prozessen

AI belebt das Recruiting in der Cybersicherheit wieder - Joel de la Garza

  • Das größte Problem der Cybersicherheit in den vergangenen zehn Jahren war das Recruiting
    • Zwischen 2013 und 2021 stieg die Zahl unbesetzter Security-Stellen von unter 1 Million auf 3 Millionen
  • Der Kern des Problems liegt in der Struktur von Security-Aufgaben auf Level 1
    • Hochqualifizierte Fachkräfte werden eingestellt und für wiederholende, zermürbende Aufgaben wie Log-Reviews eingesetzt
    • Kaum jemand möchte diese Arbeit dauerhaft machen
  • Security-Organisationen schaffen sich ihre Routinearbeit selbst
    • Sie führen Security-Produkte ein, die alles erkennen sollen
    • Das Ergebnis ist eine Struktur, in der jede Warnung von Menschen geprüft werden muss
    • Das erzeugt keine echte Knappheit, sondern eine falsche Knappheit an Arbeitskraft
  • 2026 durchbricht AI diesen Teufelskreis
    • Ein großer Teil repetitiver und redundanter Security-Arbeit wird automatisiert
    • Die Hälfte der Arbeit großer Security-Teams lässt sich durch Automatisierung lösen
  • Das schwierigste Problem ist die Entscheidung, was automatisiert werden soll
    • Wer in Arbeit versinkt, kann Automatisierungskandidaten nicht identifizieren
  • AI-native Security-Tools treffen diese Entscheidung an ihrer Stelle
    • Sie befreien Security-Teams von repetitiver Arbeit
    • Dadurch können sie sich auf die Verfolgung von Angreifern, den Aufbau von Systemen und das Schließen von Schwachstellen konzentrieren

Agent-native Infrastruktur wird zur Grundvoraussetzung - Malika Aubakirova

  • Der größte Schock für die Infrastruktur im Jahr 2026 kommt nicht von außen, sondern durch interne Veränderungen
    • Weg von vorhersehbarem menschlichem Traffic mit niedriger Parallelität
    • Rekursive und explosionsartige Agenten-Workloads werden zum Normalfall
  • Bestehende Enterprise-Backends wurden für Menschen entworfen
    • Sie gehen von einer Systemantwort auf eine menschliche Handlung aus
    • Sie berücksichtigen nicht, dass ein einzelnes Agentenziel tausende Unteraufgaben gleichzeitig erzeugen kann
  • Normale Agentenarbeit sieht für Legacy-Systeme wie ein Angriff aus
    • Code-Refactoring oder die Auswertung von Security-Logs werden als DDoS-Traffic wahrgenommen
  • Im Zentrum der Reaktion steht die Neugestaltung der Control Plane
    • Agent-native Infrastruktur wird zur Grundvoraussetzung
    • Thundering-Herd-Muster werden nicht als Ausnahme, sondern als Grundzustand behandelt
  • Die Leistungsmaßstäbe ändern sich grundlegend
    • Minimierung von Cold Starts
    • Zusammenbruch der Latenzschwankungen
    • Sprunghafter Anstieg der Parallelitätsgrenzen um Größenordnungen
  • Der Engpass ist nicht Compute, sondern Koordination (coordination)
    • Routing, Locking, Zustandsverwaltung und Policy-Durchsetzung werden zum Kern großskaliger paralleler Ausführung
  • Nur Plattformen, die Umgebungen mit überbordender Tool-Ausführung standhalten, werden überleben

Kreativ-Tools entwickeln sich multimodal weiter - Justine Moore

  • AI beherrscht bereits die zentralen Bausteine des Storytellings
    • Sprach-, Musik-, Bild- und Videogenerierung sind möglich
  • Das Problem ist Kontrolle
    • Sobald man über einmalige Clips hinausgeht, wird es schwierig, das gewünschte Ergebnis zu erzielen, und die Kosten steigen stark
    • Von klassischer Regie-Kontrolle ist das noch weit entfernt
  • Kreative wollen referenzbasierte multimodale Bearbeitung
    • Ein 30-Sekunden-Video wird als Input verwendet, ein neuer Charakter hinzugefügt und die Szene fortgeführt
    • Eine Szene wird so umgebaut, als wäre sie aus einem anderen Kamerawinkel aufgenommen worden
    • Die gleiche Bewegung wie in einem Referenzvideo wird reproduziert
  • 2026 wird zum Jahr der multimodalen AI
    • Referenz-Content jeder Art kann als Input genutzt werden
    • Das Erzeugen neuer Szenen und das Bearbeiten bestehender Szenen gehen nahtlos ineinander über
  • Frühe Produkte wie Kling O1 und Runway Aleph sind bereits erschienen
  • Sowohl auf der Modellebene als auch auf der Anwendungsebene sind weitere Innovationen nötig
  • Content-Erstellung ist der Killer-Use-Case von AI
    • Vom Meme-Creator bis zum Hollywood-Regisseur entsteht ein breiter Markt

Der AI-native Daten-Stack entwickelt sich weiter - Jason Cui

  • Im vergangenen Jahr hat sich der moderne Daten-Stack schnell konsolidiert
    • Die arbeitsteilige Struktur rund um Erfassung, Transformation und Compute zerfällt
    • Bundling und integrierte Plattformen werden zum Standard
    • Die Fusion von Fivetran und dbt sowie der Aufstieg von Databricks zeigen das
  • Das Ökosystem wirkt ausgereift, doch eine wirklich AI-native Struktur steckt noch in den Anfängen
    • Dateninfrastruktur und AI-Infrastruktur wachsen in einem untrennbaren Zustand zusammen
  • Vektor-Datenbanken etablieren sich als zentrale Komponente
    • Der Betrieb neben strukturierten Daten wird zur Grundstruktur
  • Die Schlüsselfrage im Agentenzeitalter ist das Kontextproblem
    • Es muss kontinuierlich Zugriff auf die richtigen Daten und die semantische Schicht geben
    • Über mehrere Systeme der Aufzeichnung hinweg müssen konsistente Geschäftsdefinitionen erhalten bleiben
  • BI-Tools und Spreadsheets verändern sich grundlegend
    • Daten-Workflows verlagern sich hin zu agentenzentrierten, automatisierungszentrierten Abläufen

Das Jahr, in dem wir in Videos hineingehen - Yoko Li

  • 2026 ist Video kein Medium mehr, das nur passiv konsumiert wird
    • Es wird zu einem Raum, den man tatsächlich betritt und in dem man handelt
  • Videomodelle verarbeiten Zeit und Konsistenz
    • Sie erinnern sich an frühere Szenen
    • Sie reagieren auf Nutzerverhalten
    • Sie erhalten dauerhafte Konsistenz, ähnlich der physischen Welt
  • Weg von kurzer, fragmentierter Videogenerierung
    • Charaktere, Objekte und Physik bleiben lange genug bestehen
    • Es werden Entwicklungen möglich, bei denen Handlungen zu Konsequenzen führen
  • Video wandelt sich zu einem konstruierbaren Medium
    • Roboter üben darin
    • Spiele entwickeln sich darin weiter
    • Designer erstellen Prototypen darin
    • Agenten handeln direkt darin und lernen
  • Das Ergebnis sind keine Clips, sondern lebendige Umgebungen
    • Die Lücke zwischen Wahrnehmung und Handlung schrumpft stark
    • Es entsteht das Gefühl, im generierten Video tatsächlich zu existieren

# [Growth]

Die Ära der Systeme der Aufzeichnung geht zu Ende - Sarah Wang

  • Die eigentliche Veränderung bei Enterprise-Software im Jahr 2026 besteht darin, dass Systeme of Record ihre zentrale Stellung verlieren
  • AI beseitigt die Distanz zwischen Intent und Execution nahezu vollständig
    • Modelle lesen, schreiben und schlussfolgern direkt über operative Daten hinweg
    • ITSM und CRM wandeln sich von reinen Speichern zu autonomen Workflow-Engines
  • Durch Fortschritte bei Reasoning-Modellen und Agent-Workflows erweitert sich die Rolle von Systemen
    • Sie reagieren nicht nur, sondern übernehmen auch Prognosen, Koordination und End-to-End-Ausführung
  • Das Zentrum der Interfaces verschiebt sich
    • Statt bildschirmzentrierter UIs tritt eine dynamische Agenten-Schicht in den Vordergrund
    • Bestehende Systeme of Record werden in die Persistence Tier zurückgedrängt
  • Die strategische Kontrolle verlagert sich
    • Nicht mehr entscheidend ist, wer Daten speichert
    • Entscheidend wird, wer die intelligente Ausführungsumgebung beherrscht, die Mitarbeitende tatsächlich nutzen

Vertical AI entwickelt sich zum Multiplayer - Alex Immerman

  • Vertical AI wächst mit beispielloser Geschwindigkeit
    • Im Gesundheitswesen, im Rechtsbereich und im Wohnungssektor wurden in nur wenigen Jahren $100M+ ARR erreicht
    • Auch Finanz- und Accounting-Bereiche ziehen schnell nach
  • Die erste Entwicklungsstufe ist Informationssuche
    • Benötigte Informationen werden gefunden, extrahiert und zusammengefasst
  • 2025 folgt der Übergang in die Phase des Reasoning
    • Hebbia analysiert Finanzberichte und erstellt Modelle
    • Basis gleicht Trial Balances aus mehreren Systemen ab
    • EliseAI diagnostiziert Wartungsprobleme und beauftragt den passenden Vendor
  • 2026 startet der Multiplayer-Modus
    • Vertical Software hat Stärken bei domänenspezifischen UIs, Daten und Integrationen
    • Doch reale Arbeit ist ihrem Wesen nach eine Struktur mit Zusammenarbeit vieler Beteiligter
  • Damit Agenten Arbeit stellvertretend übernehmen können, ist Zusammenarbeit unverzichtbar
    • Käufer und Verkäufer
    • Mieter, Berater und Vendoren
    • Jede beteiligte Partei hat unterschiedliche Berechtigungen, Workflows und Compliance-Anforderungen
  • Derzeit arbeitet AI jeweils isoliert
    • Eine AI, die Verträge analysiert, ist nicht mit dem CFO verbunden
    • Eine Wartungs-AI kennt die Termine des Außendienstpersonals nicht
  • Multiplayer-AI koordiniert genau das
    • Sie routet Aufgaben zwischen Stakeholdern
    • Sie hält den Kontext aufrecht
    • Sie synchronisiert Änderungen
    • Die AI der Gegenseite verhandelt innerhalb eines festgelegten Rahmens
    • Ungleichgewichte werden zur menschlichen Prüfung eskaliert
    • Korrekturen durch Senior Partner fließen in das Lernen der gesamten Organisation ein
  • Je größer der durch Zusammenarbeit geschaffene Wert, desto höher die Wechselkosten
    • Es entstehen Netzwerkeffekte, die AI-Apps bisher nicht hatten
    • Die Zusammenarbeitsschicht selbst wird zum Moat

Für Agenten statt für Menschen bauen - Stephenie Zhang

  • Ab 2026 nutzen Menschen das Web über ihre eigenen Agenten
  • Elemente, die für menschlichen Konsum wichtig waren, funktionieren nicht länger auf dieselbe Weise
  • Bisherige Optimierungsmethoden setzen menschliches Verhalten voraus
    • Top-Platzierungen in Suchergebnissen
    • Präsenz auf der ersten Seite eines Marketplace
    • Ein Aufbau, der mit TL;DR beginnt
  • Menschen können wichtige Sätze übersehen, Agenten jedoch nicht
    • Selbst einen zentralen Satz, der auf Seite 5 versteckt ist, findet ein Agent sofort
  • Der Wandel betrifft auch das Software-Design
    • Apps wurden auf menschliche Blicke und Klicks hin entworfen
    • Maßstab für Optimierung waren gute UI und intuitive Flows
  • Da Agenten Interpretation und Suche übernehmen, ändern sich die Maßstäbe
    • Visuelles Design ist nicht mehr der zentrale Faktor für Verständnis
    • Statt dass Engineers auf Grafana schauen, interpretiert ein AI-SRE die Telemetrie und fasst sie in Slack zusammen
    • Statt dass das Sales-Team ein CRM durchforstet, liefert ein Agent automatisch Muster und Zusammenfassungen
  • Jetzt wird nicht mehr für Menschen, sondern für Agenten entworfen
    • Nicht visuelle Hierarchie, sondern Maschinenlesbarkeit wird zum Optimierungsziel
    • Dieser Wandel verändert sowohl die Art des Schaffens als auch die Werkzeuge selbst

In AI-Apps ist die KPI Screen Time am Ende - Santiago Rodriguez

  • In den vergangenen 15 Jahren war Screen Time die zentrale Kennzahl für Wertschöpfung
    • Sehdauer bei Netflix
    • Zahl der Klicks im medizinischen EHR
    • Nutzungszeit von ChatGPT
  • Diese Kennzahl wird bald wirkungslos
    • Ergebnisbasierte Abrechnung setzt sich durch
    • Die Anreize von Vendoren und Nutzern richten sich aneinander aus
    • Die erste Kennzahl, die verschwindet, ist Screen Time
  • In der Realität zeigt sich der Wandel bereits
    • ChatGPT DeepResearch schafft großen Wert, auch wenn man kaum auf den Bildschirm schaut
    • Abridge erfasst Behandlungsgespräche automatisch und erledigt Folgeaufgaben
    • Cursor erstellt ganze Apps, sodass Entwickler den nächsten Zyklus planen können
    • Hebbia erstellt auf Basis von Hunderten Offenlegungen Decks und gibt Investmentbankern ihren Schlaf zurück
  • Es entsteht eine neue Herausforderung
    • Um festzulegen, wie viel pro Nutzer berechnet werden soll, ist eine komplexere ROI-Messung nötig
  • AI-Apps steigern Wert gleichzeitig in vielen Dimensionen
    • Zufriedenheit von Ärzten
    • Produktivität von Entwicklern
    • Lebensqualität von Finanzanalysten
    • Glück von Konsumenten
  • Unternehmen, die ROI am einfachsten erklären, setzen sich am Markt durch

# [Bio + Health]

Der Aufstieg gesunder MAUs - Julie Yoo

  • 2026 entsteht mit Healthy MAUs (gesunde MAUs) eine zentrale Kundengruppe im Gesundheitswesen
    • Es handelt sich um Konsumenten, die aktuell nicht krank sind
    • aber ihre Gesundheit kontinuierlich verstehen und überwachen wollen
  • Das bisherige Gesundheitssystem hat sich auf drei Nutzergruppen konzentriert
    • Sick MAUs: Patienten mit hohen Kosten und punktuell stark ansteigendem Behandlungsbedarf
    • Sick DAUs: Nutzer wie Schwerkranke oder chronisch Erkrankte, die langfristige und intensive Versorgung benötigen
    • Healthy YAUs: vergleichsweise gesunde Nutzer, die kaum medizinische Einrichtungen aufsuchen
  • Healthy YAUs tragen jederzeit das Risiko, zu Sick MAUs oder Sick DAUs zu werden
    • Präventive Betreuung kann die Geschwindigkeit dieses Übergangs verlangsamen
  • Das Problem liegt in der bestehenden Vergütungsstruktur
    • Ein behandlungszentriertes, reaktionsbasiertes Vergütungssystem im Gesundheitswesen belohnt Therapie stärker als Prävention
    • Der Zugang zu regelmäßigen Check-ins oder Monitoring-Services ist gering
    • Versicherungen bezahlen präventionsorientierte Services kaum
  • Healthy MAUs schließen diese Lücke
    • Sie sind im Moment nicht krank
    • wollen ihren Gesundheitszustand aber wiederholt prüfen und verstehen
    • und haben das Potenzial, die größte Zielgruppe unter allen Konsumenten zu werden
  • Eine Welle von Services für diese Kundengruppe beginnt
    • AI-native Startups
    • neu verpackte Services etablierter Healthcare-Unternehmen
    • alle bewegen sich hin zu regelmäßigen, abonnementbasierten Angeboten
  • AI senkt die Kostenstruktur der Gesundheitsversorgung
    • durch Automatisierung von Monitoring und Analyse
    • und durch geringere Abhängigkeit von Personal
  • Dadurch eröffnet sich die Möglichkeit präventionsorientierter Versicherungsprodukte
  • Konsumenten gewöhnen sich zunehmend an Abo-Modelle mit Selbstzahlung
  • Healthy MAUs werden zur zentralen Kundengruppe der nächsten Generation von Healthtech
    • sie sind kontinuierlich eingebunden
    • datenbasiert
    • und handeln präventionsorientiert

# [Speedrun]

World Models rücken ins Zentrum des Storytellings - Jon Lai

  • Im Zentrum des Storytellings im Jahr 2026 stehen AI-gestützte World Models
    • Es entstehen neue Formate auf Basis interaktiver virtueller Welten und einer digitalen Ökonomie
  • Marble (World Labs) und Genie 3 (DeepMind) erzeugen allein mit Text-Prompts vollständige 3D-Umgebungen
    • Nutzer erkunden diese Welten direkt wie in einem Spiel
  • Während Creator diese Tools übernehmen, entstehen völlig neue Erzählformate
    • Es werden riesige Welten geschaffen, die kollaboratives Schaffen ermöglichen
    • Letztlich entwickelt sich das in Richtung eines „generativen Minecraft“
  • Spielmechaniken und natürlichsprachige Programmierung verschmelzen
    • Befehle wie „Erschaffe einen Pinsel, der alles, was er berührt, rosa färbt“ wirken als Regeln der Welt
  • Die Grenze zwischen Spielern und Creatorn verschwindet
    • Nutzer werden nicht nur zu Konsumenten, sondern zu Mitautoren
  • Ein verknüpftes generatives Multiversum entsteht
    • Genres wie Fantasy, Horror und Adventure existieren innerhalb eines einzigen Ökosystems nebeneinander
  • Innerhalb dieser Welten wird die digitale Ökonomie aktiviert
    • Erstellung von Assets
    • Einführungshilfen für neue Nutzer
    • Monetarisierung durch die Entwicklung neuer Interaktions-Tools
  • Diese Welten werden über Unterhaltung hinaus als Simulationsumgebungen genutzt
    • Training von AI Agents
    • Lernen für Robotik
    • Darüber hinaus Ausweitung zu Experimentierfeldern für AGI
  • Der Aufstieg von World Models ist nicht bloß ein neues Spielgenre, sondern das Entstehen eines neuen kreativen Mediums und einer neuen ökonomischen Frontlinie

Das „Jahr für mich“ - Josh Lu

  • 2026 ist „The Year of Me“, das Jahr, in dem Produkte von Massenproduktion zu maßgeschneiderter Personalisierung wechseln
  • Im Bildungsbereich hat der Wandel bereits begonnen
    • Startups wie Alphaschool bieten AI-Tutoren, die sich an Tempo und Neugier jedes einzelnen Schülers anpassen
    • Ein Grad an Personalisierung, der früher nur mit Nachhilfekosten von Zehntausenden Dollar pro Schüler möglich war
  • Auch im Gesundheitsbereich wird Personalisierung alltäglich
    • AI entwirft Kombinationen aus Supplements, Trainingsplänen und Ernährungsroutinen, abgestimmt auf individuelle Biomarker
    • Das wird ohne Abhängigkeit von Trainern oder Laboren möglich
  • Auch Medien werden personalisiert
    • Nachrichten, Sendungen und Geschichten werden nach persönlichen Interessen und bevorzugtem Ton neu zusammengestellt
  • Die Gewinner des vergangenen Jahrhunderts waren Unternehmen, die den Durchschnittskonsumenten gefunden haben
  • Die Gewinner des nächsten Jahrhunderts sind Unternehmen, die den im Durchschnitt verborgenen Einzelnen finden
  • 2026 markiert den Zeitpunkt, an dem die Welt aufhört, „alle“ zu optimieren, und beginnt, „dich“ zu optimieren

Die erste AI-native Universität - Emily Bennett

  • 2026 entsteht die AI-native Universität
    • Eine Bildungseinrichtung, die von Grund auf um intelligente Systeme herum entworfen wurde
  • Bisher haben klassische Universitäten AI nur punktuell eingeführt
    • Sie blieb auf Benotung, Tutoring und Terminplanung beschränkt
  • Nun entsteht eine akademische Organisation, die selbst lernt und sich optimiert
    • Sie passt sich über Daten-Feedback-Schleifen an – vom Unterricht über Betreuung und Forschungszusammenarbeit bis zum Gebäudebetrieb
  • Jedes Element der Universität verändert sich in Echtzeit
    • Stundenpläne optimieren sich selbst
    • Leselisten werden jede Nacht aktualisiert, um neueste Forschung einzubeziehen
    • Lernpfade werden sofort an Tempo und Kontext der Studierenden angepasst
  • Es gibt bereits Vorboten
    • ASU betreibt durch die unternehmensweite Zusammenarbeit mit OpenAI Hunderte AI-Projekte
    • SUNY verankert AI Literacy als Pflichtbestandteil in den Allgemeinbildungsfächern
  • An der AI-nativen Universität verändert sich die Rolle der Professoren
    • Sie vermitteln nicht mehr nur Wissen, sondern werden zu Architekten des Lernens
    • Sie kuratieren Daten und justieren Modelle
    • Sie lehren Studierende, maschinelles Schlussfolgern kritisch zu behandeln
  • Auch die Bewertung wandelt sich
    • Plagiatserkennung und Nutzungsverbote verschwinden
    • Bewertet wird, wie AI eingesetzt wurde
    • Transparenz und ein maßvoller Einsatz werden zum Maßstab
  • Die gesamte Wirtschaft braucht Talente, die AI entwerfen, betreiben und in Zusammenarbeit einsetzen können
  • Die AI-native Universität wird zum Personal-Motor der neuen Wirtschaft, der diese Talente hervorbringt

# [American Dynamism]

Aufbau einer AI-nativen industriellen Basis - David Ulevitch

  • Die Bereiche, die die reale Stärke der US-Wirtschaft erzeugen, rücken wieder ins Zentrum
    • Energie, Fertigung, Logistik und Infrastruktur kehren als zentrale Säulen zurück
  • Die wichtigste Veränderung ist das Entstehen einer echten AI-nativen, software-first Industrie-Basis
    • Sie beginnt bei Simulation, automatisiertem Design und AI-gestütztem Betrieb
    • Es geht nicht darum, die Vergangenheit zu modernisieren, sondern die nächste Generation von Grund auf aufzubauen
  • In der gesamten Industrie eröffnen sich neue Chancen
    • Fortgeschrittene Energiesysteme
    • Robotik-zentrierte schwere Industrieproduktion
    • Bergbau der nächsten Generation
    • Biologie- und enzymbasierte chemische Prozesse als Grundlage aller Industrien
  • AI gestaltet die Kernprozesse der Industrie neu
    • Sauberere Reaktordesigns
    • Optimierung der Rohstoffgewinnung
    • Besseres Enzyme Engineering
    • Präzise Steuerung autonomer Maschinenflotten
  • Auch die Welt außerhalb der Fabrik wird neu aufgebaut
    • Autonome Sensoren und Drohnen
    • Modernste AI-Modelle machen Häfen, Schienenwege, Stromnetze, Pipelines, Militärstützpunkte und Rechenzentren kontinuierlich sichtbar
  • Die reale Welt braucht neue Software
    • Die Gründer, die sie entwickeln, entscheiden über den amerikanischen Wohlstand des nächsten Jahrhunderts

Renaissance der amerikanischen Fabrik - Erin Price-Wright

  • Das erste große Jahrhundert der USA wurde auf industrieller Leistungsfähigkeit aufgebaut
    • Durch Offshoring und das gesellschaftsweite Scheitern beim Aufbau wurde viel Substanz verloren
  • Jetzt setzt wieder Bewegung ein
    • Die Wiedergeburt der amerikanischen Fabrik mit Software und AI im Zentrum ist im Gang
  • 2026 geht die gesamte Industrie Probleme mit einer Factory-first-Denkweise an
    • Das gilt für Energie, Bergbau, Bauwesen und Fertigung insgesamt
  • Der Schlüssel ist die Verbindung aus modularer AI und Autonomie + Facharbeitern
    • So lassen sich maßgeschneiderte und komplexe Prozesse wie ein Fließband betreiben
  • Dieser Ansatz macht Folgendes möglich
    • Komplexe Regulierung und Genehmigungen schnell und wiederholt zu durchlaufen
    • Designzyklen zu verkürzen und von Beginn an fertigungsgerechtes Design umzusetzen
    • Die Koordination von Großprojekten effizient zu managen
    • Für Menschen schwierige oder gefährliche Aufgaben durch autonome Systeme zu beschleunigen
  • Das Denken à la Henry Ford wird ab Tag 0 angewendet
    • Es wird mit Blick auf Skalierung und Wiederholbarkeit entworfen
    • Kombiniert mit modernster AI
  • Die Ergebnisse zeigen sich schnell
    • Massenproduktion von Reaktoren
    • Ausweitung des Wohnungsangebots
    • Ultraschneller Bau von Rechenzentren
  • Die Aussage „Die Fabrik ist das Produkt“ wird wieder Realität
  • Der Eintritt in ein neues industrielles goldenes Zeitalter beginnt

Die nächste Welle der Observability ist nicht digital, sondern physisch - Zabie Elmgren

  • In den vergangenen zehn Jahren hat Software-Observability digitale Systeme transparent gemacht
    • Über Logs, Metriken und Traces wurden Code und Server verständlich
  • Dieselbe Innovation weitet sich nun auf die physische Welt aus
  • In den USA sind bereits mehr als eine Milliarde Kameras und Sensoren im Einsatz
    • Physische Observability, die Städte, Stromnetze und Infrastruktur in Echtzeit verständlich macht, wird dringlich und machbar
  • Diese Wahrnehmungsschicht eröffnet die nächste Stufe von Robotik und Autonomie
    • Dafür braucht es ein gemeinsames Fabric, mit dem Maschinen die physische Welt wie Code wahrnehmen
  • Gleichzeitig gibt es Risiken: Technologien zur Waldbranderkennung und Vermeidung von Industrieunfällen können auch in eine dystopische Überwachung umschlagen
  • Gewinnen werden Unternehmen, die Vertrauen erwerben: datenschutzwahrend, interoperabel und AI-native
  • Es braucht Systeme, die die Gesellschaft verständlicher machen, ohne sie weniger frei zu machen
  • Wer dieses Fabric des Vertrauens aufbaut, definiert die Observability der nächsten zehn Jahre

Der elektro-industrielle Stack bewegt die Welt - Ryan McEntush

  • Die nächste industrielle Revolution findet nicht nur in Fabriken statt, sondern im Inneren dessen, was Maschinen ausmacht
  • Software hat Denken und Design verändert und verändert nun Mobilität, Bau und Produktion
  • Es entsteht eine Verbindung aus Elektrifizierung, Materialien und AI
    • In die physische Welt hält echte Software-Steuerung Einzug
    • Maschinen erkennen, lernen und handeln selbstständig
  • Das ist der Electro-Industrial Stack
    • Die Basistechnologie für Elektrofahrzeuge, Drohnen, Rechenzentren und moderne Fertigung
    • Er verbindet Technologien, die Atome bewegen, mit Bits
  • Die Bestandteile des Stacks
    • Mineralraffination → Komponenten
    • In Batterien gespeicherte Energie
    • Durch Leistungselektronik gesteuerter Strom
    • Über Präzisionsmotoren übertragene Bewegung
    • Software, die alles koordiniert
  • Er ist das unsichtbare Fundament physischer Automatisierung und macht den Unterschied zwischen Software, mit der man ein Taxi ruft, und Software, die das Lenkrad übernimmt
  • Die Fähigkeit, diesen Stack aufzubauen, schwindet: Raffination kritischer Materialien & Fertigung fortschrittlicher Chips
  • Wenn die USA das nächste industrielle Zeitalter anführen wollen, müssen sie Hardware selbst herstellen
  • Das Land, das den Electro-Industrial Stack beherrscht, bestimmt die Zukunft von Industrie- und Militärtechnologie
  • Software hat die Welt verschlungen. Jetzt setzt sie die Welt in Bewegung

Autonome Labore beschleunigen wissenschaftliche Entdeckungen - Oliver Hsu

  • Die Fähigkeiten der Modelle entwickeln sich multimodal weiter
  • Auch die robotischen Manipulationsfähigkeiten verbessern sich kontinuierlich
  • Durch das Zusammenspiel dieser beiden Strömungen entstehen autonome Labore
    • Hypothesenbildung - Versuchsplanung - Durchführung - Schlussfolgerung und Ergebnisanalyse - Iteration der nächsten Forschungsrichtung
  • Der End-to-End-Loop wissenschaftlicher Entdeckung schließt sich automatisch
  • Teams, die solche Labore bauen, sind ihrem Wesen nach interdisziplinär: AI, Robotik, Physik- und Lebenswissenschaften, Fertigung, Operations
  • Durch unbemannte (lights-out) Experimente werden kontinuierliche Experimente möglich
  • In vielen Bereichen beschleunigt sich das Tempo von Entdeckungen drastisch

Der Datenkreuzzug in Richtung Schlüsselindustrien - Will Bitsky

  • Im Zentrum des AI-Diskurses 2025 standen Compute-Beschränkungen und Rechenzentren
  • 2026 stehen Datenbeschränkungen und neue Daten-Schlachtfelder im Mittelpunkt, und dieses Schlachtfeld sind die Schlüsselindustrien
  • In Schlüsselindustrien schlummern noch riesige Mengen unstrukturierter Daten: Lkw-Betrieb, Zählerablesung, Wartungsarbeiten, Produktionsprozesse, Montage und Tests
  • All diese Abläufe werden zu Trainingsdaten für Modelle; wichtig ist nicht nur, was getan wurde, sondern wie es getan wurde
  • Das Problem ist, dass in industriellen Umgebungen oft ein Datenverständnis fehlt: Erfassung, Annotation und Modelltraining gehören nicht zum industriellen Vokabular
  • Die Datennachfrage explodiert
    • Scale, Mercor und AI-Labore sammeln Prozessdaten aggressiv ein
    • Sie stützen sich auf teure, manuell erstellte Daten
  • Bestehende Industrieunternehmen haben einen strukturellen Vorteil
    • Sie verfügen bereits über physische Infrastruktur und Arbeitskräfte
    • Datenerfassung ist nahezu ohne Grenzkosten möglich
    • Sie können eigene Modelle trainieren oder extern lizenzieren
  • Startups unterstützen dabei
    • Software für Erfassung, Annotation und Einwilligungsmanagement
    • Sensor-Hardware und SDKs
    • Reinforcement-Learning-Umgebungen und Trainingspipelines
    • Letztlich sogar eigene intelligente Maschinen

# [Apps]

AI stärkt das Geschäftsmodell selbst - David Haber

  • Herausragende AI-Startups automatisieren nicht nur Aufgaben, sondern verstärken die ökonomische Struktur ihrer Kunden selbst
  • Am Beispiel von Anwaltskanzleien mit Erfolgshonorar
    • Einnahmen entstehen nur, wenn sie gewinnen
    • Unternehmen wie Eve nutzen Falldaten zu Prozessergebnissen, um die Gewinnwahrscheinlichkeit vorherzusagen
    • Sie wählen bessere Fälle aus, bearbeiten mehr Mandanten und gewinnen häufiger
  • AI bleibt nicht auf Kostensenkung beschränkt, sondern steigert direkt den Umsatz
  • 2026 breitet sich diese Logik auf die gesamte Industrie aus
    • AI wird tiefer an den Anreizen der Kunden ausgerichtet
    • Dadurch entsteht ein aufzinsender Wettbewerbsvorteil, den bestehende Software nicht einholen kann

ChatGPT wird zum AI App Store - Anish Acharya

  • Ein Produktzyklus im Consumer-Bereich braucht drei Dinge
    • neue Technologie
    • neues Verbraucherverhalten
    • einen neuen Vertriebskanal
  • AI erfüllt die ersten beiden Punkte, hatte aber keinen eigenen Vertriebskanal und war auf bestehende Netzwerke wie X oder Mundpropaganda angewiesen
  • Das ändert sich
    • Veröffentlichung des OpenAI Apps SDK
    • Unterstützung für Mini-Apps durch Apple
    • Einführung von Gruppennachrichten in ChatGPT
  • Entwickler können nun direkt die 900 Millionen Nutzer von ChatGPT erreichen
    • und zusammen mit neuen Mini-App-Netzwerken wie Wabi wachsen
  • Mit diesem letzten Puzzlestück dürfte 2026 im Consumer-Tech-Bereich ein Goldrausch, der nur einmal pro Jahrzehnt kommt, beginnen

Sprachagenten erweitern ihr Einsatzgebiet jetzt richtig - Olivia Moore

  • In den vergangenen 18 Monaten ist Voice AI von Science-Fiction zur Realität geworden: Terminplanung, Buchungsabwicklung, Umfragen, Bearbeitung eingehender Kundenanfragen
  • Vom SMB bis zum Enterprise wird sie bereits breit eingesetzt
  • Der Effekt ist eindeutig: Kostensenkung, zusätzlicher Umsatz, Menschen übernehmen höherwertige Arbeit
  • Viele Unternehmen bleiben bislang noch in der Phase von Point Solutions und bearbeiten nur bestimmte Anruftypen
  • Der nächste Schritt ist die umfassende Ausweitung
    • Bearbeitung kompletter Workflows
    • multimodale Interaktionen
    • Management der gesamten Kundenbeziehung
  • Dafür braucht es tief in Business-Systeme integrierte Agenten und Befugnisse, komplexere Interaktionen autonom zu bearbeiten
  • Solange sich die Modellleistung weiter verbessert, gibt es keinen Grund, warum nicht jedes Unternehmen Voice-first AI betreiben sollte

Der Aufstieg promptloser, proaktiver Anwendungen - Marc Andrusko

  • 2026 ist das Ende des Prompt-Eingabefelds
  • Die nächste Generation von AI-Apps funktioniert ohne explizite Eingabe: Sie beobachtet das Verhalten der Nutzer und macht proaktiv Vorschläge
  • Beispiele
    • Eine IDE schlägt Refactorings vor, bevor darum gebeten wird
    • Ein CRM formuliert direkt nach Ende eines Gesprächs eine Follow-up-E-Mail
    • Ein Design-Tool erzeugt während der Arbeit Varianten
  • Das Chat-Interface war nur ein Stützrad
  • AI wird nun zu einer unsichtbaren Struktur, die sich durch den gesamten Workflow zieht
    • Sie reagiert nicht auf Befehle, sondern auf Intention

AI baut das Fundament von Banken und Versicherungen neu - Angela Strange

  • Etablierte Finanzunternehmen haben AI bisher auf Legacy-Systeme aufgesetzt: Dokumentenerkennung, Sprachagenten
  • Der echte Wandel entsteht, wenn die Infrastruktur selbst neu aufgebaut wird
  • 2026 wird das Risiko, AI nicht einzusetzen, größer als das Risiko des Scheiterns
  • Große Finanzinstitute kündigen Verträge mit Legacy-Anbietern und wechseln zu AI-nativen Alternativen
  • Merkmale neuer Finanzplattformen: Sie zentralisieren, normalisieren und erweitern Legacy- und externe Daten
  • Das Ergebnis
    • großflächige Parallelisierung von Workflows
    • Aufgabenbearbeitung ohne Wechsel zwischen Systemen
    • Hunderte Aufgaben auf einen Blick, von denen Agenten einen Teil automatisch erledigen
  • Die Kategorien selbst verschmelzen
    • Beispiel: KYC und Conversion Monitoring werden zu einer einheitlichen Risiko-Plattform zusammengeführt
  • Die Gewinner werden 10-mal größere Unternehmen als die bisherigen
    • Software ersetzt Arbeit
  • Die Zukunft des Finanzwesens besteht nicht darin, AI auf bestehende Systeme aufzusetzen, sondern ein neues, auf AI basierendes Betriebssystem zu schaffen

Eine Forward-Deployed-Strategie verbreitet AI auf die übrigen 99 % - Joe Schmidt

  • Bislang konzentrierten sich die Vorteile von AI auf das 1 % im Silicon Valley. Der Grund waren geografische Nähe und VC-Netzwerke
  • 2026 kehrt sich dieser Trend um: Der Großteil der AI-Chancen liegt außerhalb des Silicon Valley
  • Neue Gründer entdecken Chancen in Legacy-Industrien von innen heraus mit einem Forward-Deployed-Ansatz
  • Besonders große Chancen gibt es in Bereichen wie
    • klassische Beratung
    • Systemintegration
    • langsame Industrien wie die Fertigung

In den Fortune 500 entstehen eine neue Orchestrierungsschicht und neue Rollen - Seema Amble

  • Unternehmen wechseln von einzelnen AI-Tools zu Multi-Agenten-Systemen
  • Agenten müssen wie ein digitales Team zusammenarbeiten. Sie übernehmen gemeinsam Planung, Analyse und Ausführung
  • Dafür werden Arbeitsstrukturen und der Kontextfluss zwischen Systemen neu gestaltet
  • AskLio und HappyRobot setzen Agenten bereits nicht nur für einzelne Aufgaben, sondern für gesamte Prozesse ein
  • Die Fortune 500 erleben den größten Wandel: enorme Datensilos und implizites Wissen, das bislang nur in den Köpfen von Menschen existierte
  • Wird daraus eine gemeinsame Grundlage, sind schnellere Entscheidungen, verkürzte Zyklen und End-to-End-Prozesse ohne menschliche Eingriffe möglich
  • Neue Rollen entstehen: AI-Workflow-Designer, Agenten-Aufseher und Verantwortliche für Governance
  • Über dem System of Record kommt ein System of Coordination hinzu
  • Menschen konzentrieren sich auf die komplexesten Edge Cases
  • Multi-Agenten bedeuten nicht bloß Automatisierung, sondern eine Neugestaltung der gesamten Art, wie Unternehmen operieren

Consumer-AI bewegt sich von „Hilf mir“ zu „Sieh mich“ - Bryan Kim

  • 2026 ist das Jahr, in dem Consumer-AI sich von Produktivität zu Verbundenheit bewegt
  • AI ist nicht mehr nur ein Werkzeug, das bei der Arbeit hilft, sondern trägt dazu bei, sich selbst besser zu verstehen und Beziehungen zu stärken
  • Das ist ein schwieriges Feld. Viele Social-AI-Produkte sind gescheitert
  • Doch das Umfeld hat sich verändert: mehr multimodaler Kontext, sinkende Kosten für Inferenz
  • AI lernt nun Emotionen auf Fotos, Gesprächsmuster und stressbedingte Veränderungen von Routinen
  • Merkmale von „See me“-Produkten
    • geringe kurzfristige Zahlungsbereitschaft
    • hohe Bindungsrate
  • Menschen tauschen ihre Daten bereits gegen Mehrwert
    • und dieser Gegenwert wird bald groß genug sein

Neue Modell-Primitives ermöglichen Unternehmen, die zuvor unmöglich waren - Kimberly Tan

  • Durch jüngste Modellinnovationen entstehen Unternehmen, die es zuvor nicht geben konnte
  • Früher ging es nur darum, bestehende Produkte zu verbessern
  • Jetzt wird die Kernfunktion eines Produkts überhaupt erst durch neue Modellfähigkeiten möglich
  • Beispiele
    • komplexe Entscheidungen bei finanziellen Forderungen
    • Analyse riesiger Mengen wissenschaftlicher und Research-Materialien
    • Extraktion von Videodaten aus der Fertigung
    • Automatisierung von Arbeit, die sich hinter Desktops und schlechten APIs verborgen hatte
  • Inferenz, Multimodalität und Computernutzung verändern die Struktur riesiger Branchen

AI-Startups, die AI-Startups als Kunden gewinnen, wachsen - James da Costa

  • Derzeit erleben wir eine beispiellose Gründungswelle
  • Auch etablierte Unternehmen führen AI schnell ein
  • Startups gewinnen, indem sie Unternehmen in der Entstehungsphase als Kunden ansprechen
  • Wer junge Unternehmen früh gewinnt, wächst mit ihnen, wenn sie größer werden
  • Stripe, Deel, Mercury und Ramp nutzen diese Strategie
  • Viele Kunden von Stripe wurden erst nach Stripe gegründet
  • 2026 wird das Jahr, in dem Startups mit einer Greenfield-Strategie in mehreren Bereichen der Enterprise-Software ernsthaft skalieren
  • Der Kern ist einfach:
    • ein besseres Produkt bauen
    • und sich besessen auf neue Kunden konzentrieren, die noch nicht gebunden sind

# [Crypto]

Privatsphäre wird zum wichtigsten Burggraben in Krypto

  • Damit Onchain-Finanzwesen Mainstream werden kann, ist Privatsphäre unverzichtbar
  • Die meisten Blockchains hatten bei Privatsphäre bisher jedoch faktisch eine Leerstelle oder behandelten sie als Nebensache
  • Nun kann allein Privatsphäre eine Chain klar differenzieren
  • Privatsphäre ist nicht nur ein Feature, sondern kann Chain Lock-in erzeugen
    • besonders stark in einer Welt, in der ein reiner Performance-Wettbewerb nicht mehr ausreicht
  • Der Wechsel zwischen öffentlichen Chains ist dank Bridging einfach
    • doch mit Privatsphäre sieht die Lage anders aus
    • Tokens lassen sich leicht bewegen, Geheimnisse jedoch nicht
  • Risiken beim Wechsel in und aus privaten Bereichen
    • Beobachter von Chain-, Mempool- und Netzwerk-Traffic können Identitäten erschließen
    • beim Überschreiten von Grenzen (privat↔öffentlich, privat↔privat) kommt es zu Metadaten-Lecks
      • etwa durch Transaktionszeitpunkte oder Größenkorrelationen als Hinweise für Nachverfolgung
  • Gebühren tendieren durch Wettbewerb leicht gegen null
    • Blockspace wird zunehmend homogenisiert
    • deshalb kann eine „neue Chain ohne besondere Merkmale“ nur schwer starke Netzwerkeffekte erzeugen
  • Umgekehrt haben Privacy-Chains mehr Potenzial, stärkere Netzwerkeffekte aufzubauen
  • Eine General-Purpose-Chain, die
    • noch kein florierendes Ökosystem hat
    • keine Killer-App besitzt
    • und keinen unfairen Verteilungsvorteil hat,
      bietet kaum einen Grund zur Nutzung, zum Bau darauf oder zur Loyalität
  • Bei öffentlichen Chains ist weniger entscheidend, „auf welcher Chain man ist“
    • Transaktionen mit Nutzern anderer Chains sind ebenfalls leicht
  • Bei privaten Chains ist viel wichtiger, „in welche Chain man hineingeht“
    • weil beim Wechsel das Risiko der Offenlegung steigt und Abwanderung seltener wird
  • Dadurch können Privacy-Chains eine Struktur schaffen, die nahe an Winner-takes-most liegt
    • wenn die meisten realen Anwendungsfälle Privatsphäre brauchen
    • könnten wenige Privacy-Chains den Großteil von Krypto auf sich vereinen

Prognosemärkte werden größer, breiter und intelligenter

  • Prognosemärkte sind bereits in der Phase der Massenadoption angekommen
  • Im kommenden Jahr wachsen durch die Kombination mit Krypto und AI gleichzeitig Größe, Reichweite und Intelligenz
  • Es werden deutlich mehr Kontrakte gelistet
    • nicht nur zu großen Wahlen oder geopolitischen Themen
    • sondern auch zu immer komplexeren Ergebnissen und miteinander verflochtenen Ereignissen als Echtzeit-Wahrscheinlichkeiten
  • Informationen aus Prognosemärkten dringen bereits tiefer in das Nachrichtenökosystem ein
  • Gleichzeitig werden gesellschaftliche Fragen größer
    • wie sich Wert und Risiko solcher Informationen ausbalancieren lassen
    • wie sich das Design transparenter und auditierbarer machen lässt
    • und wie Krypto das ermöglichen kann (unter der Annahme, dass dazu ein Folgebeitrag verlinkt wird)
  • Wenn die Zahl der Kontrakte steigt, wird die Frage zum Engpass, „wie man sich auf Wahrheit einigt“
  • Für Skalierung braucht es neue Mechanismen zur Behandlung von Streitfällen
    • dezentrale Governance
    • LLM-Oracles zur Unterstützung bei der Beurteilung der „Wahrheit“ umstrittener Ergebnisse
  • AI erweitert den Spielraum nicht nur bei Oracles, sondern auch im Trading
    • Agent-Trader können Signale aus der Welt einsammeln und sich so kurzfristige Vorteile verschaffen
    • (Strömungen wie Prophet Arena geben darauf Hinweise)
  • Prognosemärkte ersetzen Umfragen nicht
    • stattdessen können sie Umfragen verbessern
    • auch Umfragedaten können in Prognosemärkte einfließen
  • Eine der zentralen Aufgaben ist der „Nachweis, ein Mensch zu sein“

RWA-Tokenisierung und Stablecoins wieder stärker Krypto-native denken

  • Banken/Finttechs/Asset-Manager
  • Doch die heutige Tokenisierung ist oft skeuomorph
    • sie kopiert lediglich bestehende Konzepte realer Vermögenswerte
    • und nutzt die nativen Funktionen von Krypto nicht ausreichend
  • Als Alternative sind synthetische Assets, insbesondere Perpetual Futures (Perps), sehr stark
    • tiefere Liquidität
    • oft einfacher umzusetzen
    • Hebelwirkung ist intuitiv
    • unter den Krypto-nativen Derivaten haben sie womöglich den stärksten PMF
  • Interessantes Experiment: das „Perpifizieren“ von Emerging-Market-Aktien
    • bei einigen Titeln zeigen 0DTE-Optionen teils tiefere Liquidität als der Spotmarkt
    • und könnten daher attraktive Kandidaten für Perpifizierungs-Experimente sein
  • Letztlich lautet die Frage Perpifizieren vs. Tokenisieren
    • in welcher Form auch immer: 2026 dürfte es mehr Krypto-native RWA-Ströme geben
  • Auch bei Stablecoins wird statt „Tokenisierung“ Origination wichtiger
    • 2025 sind Stablecoins im Mainstream angekommen, und das ausstehende Volumen wächst weiter
  • Stablecoins ohne starke Kreditinfrastruktur wirken wie Narrow Banks
    • also ein eng gefasstes Bankmodell, das nur sehr sichere liquide Assets hält
    • das ist zwar ein valides Produkt, reicht aber nicht als langfristiges Rückgrat der Onchain-Ökonomie
  • Deshalb bieten „Schulden-Assets“ größere Vorteile, wenn sie
    • direkt onchain originiert werden statt offchain erzeugt und tokenisiert
    • geringere Kosten für Lending-Services und Backoffice-Strukturen
    • höhere Zugänglichkeit
  • Die verbleibenden harten Probleme sind Compliance und Standardisierung
    • doch Builder, die sie lösen wollen, sind bereits in Bewegung

Trading ist nicht das Ziel, sondern eine Zwischenstation

  • Abgesehen von Stablecoins und etwas Kerninfrastruktur
    • sind viele erfolgreiche Krypto-Unternehmen auf Trading umgeschwenkt oder gerade dabei
  • Das Problem, wenn alle zu Trading-Plattformen werden
    • die Akteure homogenisieren sich, wodurch Aufmerksamkeit und Chancen aufgezehrt werden
    • am Ende bleiben leicht nur wenige große Gewinner übrig
    • Teams, die zu früh pivotieren, verpassen womöglich die Chance, ein verteidigbares Geschäft aufzubauen
  • Das Jagen nach einem unmittelbaren PMF-Gefühl hat seinen Preis
    • besonders in Krypto, wo Token-/Spekulationsstrukturen sofortige Belohnungen fördern
    • und damit eher zu kurzfristigen „Trades“ als zum Aufbau langfristiger „Produkte“ ziehen können
  • Trading selbst ist eine wichtige Marktfunktion
    • muss aber nicht das „Endziel“ sein
  • Die größeren Gewinner könnten jene sein,

Von KYC zu KYA: nicht den Kunden kennen, sondern den Agenten

  • In der Agentenökonomie verlagert sich der Engpass von Intelligenz zu Identität
  • In Finanzdienstleistungen gibt es mittlerweile 96:1 mehr „nicht-menschliche Identitäten“ als menschliche Mitarbeiter
    • diese Identitäten werden jedoch faktisch wie Geister außerhalb des Bankensystems behandelt
  • Das entscheidende Primitive ist KYA (Know Your Agent)
    • so wie Menschen einen Credit Score brauchen,
    • brauchen auch Agenten zum Handeln kryptografisch signierte Credentials
      • verknüpft mit dem Principal des Agenten
      • mit definierten Einschränkungen und Haftung
  • Ohne KYA ist die Realität simpel
    • Shops und Services blockieren Agenten weiter an der Firewall
  • Eine Branche, die über Jahrzehnte KYC-Infrastruktur aufgebaut hat,
    • muss nun innerhalb weniger Monate KYA schaffen

Stablecoin-On- und Offramps werden intelligenter

  • Das Stablecoin-Transaktionsvolumen wurde im vergangenen Jahr auf rund 46 Billionen US-Dollar geschätzt
    • und markiert weiter neue Höchststände
    • zum Vergleich: über 20x PayPal, fast 3x Visa und nähert sich schnell dem US-ACH-System
  • Technisch ist das „Senden“ inzwischen schon einfach
  • Das zentrale ungelöste Problem bleibt die Anbindung an reale Finanzschienen
    • also die Onramps und Offramps für Stablecoins
  • Eine neue Startup-Generation schließt diese Lücke
    • Anbindung an vertraute Zahlungssysteme und lokale Währungen
    • Tausch lokaler Guthaben ↔ digitaler Dollar unter Wahrung der Privatsphäre durch kryptografische Nachweise
    • Integration von Interbank-Abwicklung über QR-basierte/Echtzeit-Zahlungsschienen
    • globale Wallet-Schicht + Kartenausgabe, damit Stablecoins bei alltäglichen Händlern ausgegeben werden können
  • Wenn On- und Offramps reifen, entstehen neue Verhaltensweisen
    • Echtzeit-Auszahlung grenzüberschreitender Löhne
    • Entgegennahme von „globalen Dollar“ auch ohne Konto
    • Apps können mit Nutzern weltweit sofort abrechnen
  • Stablecoins wandeln sich von einem Nischen-Finanztool
    • zu einer grundlegenden Zahlungs- und Settlement-Layer des Internets

Stablecoins eröffnen einen Upgrade-Zyklus für Bank-Ledger und neue Zahlungsszenarien

  • Bank-Core-Systeme sind aus moderner Entwicklersicht fast schon „archäologische Artefakte“
    • 1960er–70er: frühe Einführung von Großsystemen
    • 1980er–90er: Core Banking der zweiten Generation (Temenos GLOBUS, Infosys Finacle usw.)
    • noch heute sind bei Kern-Ledgern Mainframes, COBOL und Batch-Datei-Schnittstellen üblich
  • Ein Großteil der globalen Assets liegt auf diesen veralteten Core-Ledgern
    • sie genießen das Vertrauen der Regulierer
    • sind tief in komplexe Betriebsabläufe integriert
    • bremsen Innovation zugleich massiv aus
    • selbst das Hinzufügen von Funktionen wie RTP kann Monate bis Jahre dauern
  • Stablecoins ermöglichen Innovation, ohne das Legacy-System sofort herausreißen zu müssen
    • Stablecoins, tokenisierte Einlagen, tokenisierte Staatsanleihen und Onchain-Bonds
    • werden zum Weg, auf dem Banken und Fintechs neue Produkte und Kunden erschließen
  • Die vergangenen Jahre waren eine Phase, in der Stablecoins PMF erreichten und im Mainstream ankamen
  • In diesem Jahr hat TradFi sie auf höherem Niveau angenommen
  • Fazit: Stablecoins werden zu einem Innovationskanal, der Legacy-Ledger umgeht

Die nahe Zukunft des Messaging ist nicht nur quantenresistent, sondern dezentralisiert

  • Vorsorge für Quantencomputing ist wichtig
  • Doch das größere Problem ist das Vertrauen in Server
    • bei großen Messengern wie Apple/Signal/WhatsApp
    • muss man letztlich privaten Servern vertrauen, die von einer einzelnen Organisation betrieben werden
    • dadurch bleibt die Schwachstelle, dass Regierungen Server blockieren, mit Backdoors versehen oder dazu zwingen können
  • Wenn Server im Zentrum des Vertrauensmodells stehen, heißt es letztlich „trust me“
    • ohne private Server heißt es dagegen: „man muss gar nicht erst vertrauen“
  • Messaging muss zu offenen Protokollen gehen
    • keine privaten Server
    • keine einzelne App
    • vollständig Open Source
    • Kryptografie auf höchstem Niveau, auch gegen Quantenbedrohungen
  • Wenn das Netzwerk offen ist,
    • kann kein Staat und kein Unternehmen die Kommunikationsfähigkeit leicht wegnehmen
    • selbst wenn eine App blockiert wird, können am nächsten Tag 500 neue auftauchen
    • und selbst wenn Nodes abgeschaltet werden, sorgen ökonomische Anreize für neue Nodes
  • Wenn Nachrichten und Identität wie Geld per Schlüssel besessen werden, verändert das alles
    • die App kann sich ändern, aber die Kontrolle über Nachrichten und Identität bleibt beim Nutzer
  • Im Kern geht es also über „quantenresistente Kryptografie“ hinaus um Eigentum und Dezentralisierung

Von „Code ist Gesetz“ zu „Spezifikation ist Gesetz“

  • Jüngste DeFi-Hacks sind selbst bei
    • starken Teams, gründlichen Audits und seit Jahren betriebenen Protokollen passiert
  • Die aktuellen Sicherheitspraktiken sind weiterhin
    • heuristikgetrieben
    • eher Flickwerk von Vorfall zu Vorfall
  • Damit DeFi-Sicherheit reifen kann, braucht es einen Kurswechsel
    • Reaktion auf Bug-Muster → hin zu Eigenschaften auf Design-Ebene (property)
    • best-effort → hin zu prinzipienbasiert (principled)
  • Vor dem Deployment (statische Seite)
    • Statt Teilverifikation müssen globale Invarianten (invariant) systematisch bewiesen werden
    • KI-gestützte Beweis-Tools können
      • Spezifikationen schreiben
      • Invarianten vorschlagen
      • die Kosten manueller Proof-Engineering-Arbeit senken
  • Nach dem Deployment (dynamische Seite)
    • Invarianten werden als Runtime-Guardrails genutzt
    • sie werden als Runtime-Assertions (assertion) kodiert, die jede Transaktion erfüllen muss
  • Statt zu erwarten, dass „alle Bugs gefunden wurden“
    • werden Transaktionen, die zentrale Sicherheitseigenschaften verletzen, automatisch zurückgesetzt
  • Realistisch betrachtet wären die meisten Exploits
    • während der Ausführung wahrscheinlich an solchen Checks hängen geblieben
  • Deshalb entwickelt sich „code is law“ zu „spec is law“ weiter
    • auch neue Angriffe müssen dieselben Sicherheitseigenschaften erfüllen
    • dadurch werden mögliche Angriffe klein oder sehr schwer

Krypto liefert neue Primitive, die sich auch außerhalb der Blockchain nutzen lassen

  • SNARKs waren lange Zeit fast eine blockchain-spezifische Technologie
    • kryptografische Beweise, die sich verifizieren lassen, ohne die Berechnung erneut auszuführen
    • der Overhead war jedoch zu hoch (bis zu 1.000.000-fach)
  • 2026 könnten zkVM-Prover
    • auf ungefähr 10.000-fachen Overhead sinken
    • auch der Memory-Footprint fällt auf einige hundert MB
    • sie lassen sich auf dem Smartphone ausführen und werden günstig genug für den breiten Einsatz
  • Warum 10.000 das „magische Zahl“ sein könnte
    • High-End-GPUs haben gegenüber Laptop-CPUs grob eine 10.000-fache Parallelität
    • bis Ende 2026 könnte eine einzelne GPU Beweise für CPU-Ausführung in Echtzeit erzeugen
  • Die Vision aus einem älteren Paper, die dadurch möglich wird: verifizierbares Cloud Computing
    • CPU-Workloads laufen häufig in der Cloud
      • weil sie nicht schwer genug für GPU-Optimierung sind
      • weil das Know-how fehlt
      • oder aus Legacy-Gründen
    • zu vernünftigen Kosten lassen sich Korrektheitsbeweise anhängen
    • Prover sind bereits GPU-optimiert, sodass der Anwendungscode unverändert bleiben kann

KI für echte Forschungsarbeit einsetzen

  • Noch zu Beginn dieses Jahres verstand Consumer-KI Forschungs-Workflows nicht besonders gut
  • Einige Monate später kann man KI abstrakte Anweisungen geben, wie man sie einem Doktoranden geben würde
    • und gelegentlich kommen neue und korrekt ausgeführte Antworten heraus
  • Im größeren Trend nimmt der KI-Einsatz in der Forschung zu
  • In welchen Bereichen die Wirkung am größten sein wird, ist noch offen
  • Möglich ist aber, dass ein neuer polymathischer Forschungsstil im Vorteil ist
    • der Beziehungen zwischen Ideen als Hypothesen formuliert
    • die Fähigkeit betont, aus unvollständigen Antworten schnell zu extrapolieren
    • und auch mit teils ungenauen Antworten die Richtung treffen kann
  • Paradoxerweise gibt es dabei auch ein Element der Nutzung von „Halluzinationen“
    • wenn Systeme intelligent genug werden und frei oszillieren
    • entsteht zwar Unsinn, aber gelegentlich auch eine Öffnung für Entdeckungen
  • Dafür nötige Workflows
    • keine Einzelagenten, sondern eine Struktur aus Agenten, die Agenten umhüllen (mehrschichtiges Wrapping)
    • andere Modelle bewerten und synthetisieren die Versuche und Ergebnisse früherer Modelle
  • Beispiele aus der Praxis
    • Paper schreiben: write papers
    • Patentrecherche, künstlerisches Schaffen
    • und leider auch das Auffinden von Smart-Contract-Angriffen
  • Um Forschungs-Agenten-Ensembles zu betreiben, braucht es

Auf das offene Web wird eine unsichtbare Steuer gelegt

  • KI-Agenten legen dem offenen Web eine unsichtbare Steuer auf
  • Im Kern ist das Problem eine Fehlanpassung zwischen zwei Ebenen des Internets
    • Kontext-Ebene: Daten werden auf werbefinanzierten Websites bereitgestellt
    • Ausführungs-Ebene: Agenten ziehen diese Daten heraus und liefern den Nutzern Komfort
    • dadurch werden Erlösquellen wie Werbung/Abos umgangen und die Grundlage geschwächt
  • Wenn das offene Web kollabiert
    • schrumpft auch die vielfältige und reichhaltige Content-Basis, von der KI lebt
  • Benötigt wird eine großflächige Einführung technischer und ökonomischer Lösungen
    • Sponsored Content der nächsten Generation
    • Mikro-Attribution (Beitragsnachverfolgung)
    • neue Finanzierungsmodelle
  • Bestehende KI-Lizenzierungsdeals sind
    • oft nur finanziell nicht nachhaltiges Flickwerk, das die von KI verursachten Traffic-Verluste nicht ausgleicht
  • Der zentrale Wechsel ist
    • von statischer Lizenzierung → hin zu Vergütung auf Basis der Echtzeitnutzung
  • Mit Blockchain-basierten Nanopayments und ausgefeilten Attributionsstandards
    • muss man Modelle testen und skalieren, bei denen Wert automatisch an alle Beteiligten fließt,
    • die zu einer erfolgreichen Aufgabe eines Agenten beigetragen haben

Der Aufstieg von Staked Media

  • Das traditionelle Medienmodell (einschließlich des Mythos der „Objektivität“) hatte bereits Risse
  • Das Internet gab allen eine Stimme
    • und Betreiber, Praktiker und Builder begannen, direkt zur Öffentlichkeit zu sprechen
  • Die Perspektiven von Menschen spiegeln ihre Interessen und ihren Einsatz wider
    • paradoxerweise vertraut das Publikum ihnen gerade deshalb oft mehr
  • Neu ist nicht „Social Media“
    • sondern das Aufkommen kryptografischer Tools, die öffentlich verifizierbare Commitments ermöglichen
  • Wenn die Kosten für die Erstellung von Inhalten durch KI fast auf null sinken, reichen bloße Worte nicht mehr aus (einschließlich Bots/Deepfakes/falscher Personas)
  • Deshalb verändert sich die Grundlage von Vertrauen
    • tokenisierte Vermögenswerte
    • programmierbare Lockups
    • Prediction Markets
    • Onchain-Historien
      werden zu robusteren Vertrauenssignalen
  • Der Kern von „Staked Media“
    • besteht nicht darin, Interessen zu verbergen, sondern sie in nachweisbarer Form offenzulegen
    • statt „Ich bin neutral“ heißt es dann „Das ist mein Einsatz, und so lässt er sich verifizieren“
  • Es etabliert sich nicht als Ersatz für andere Medien, sondern als ergänzendes Signal

Secret-as-a-Service

  • Alle Modelle/Agenten/Automatisierungen hängen letztlich von Daten ab
  • Doch heutige Datenpipelines sind oft
    • intransparent
    • leicht veränderbar
    • schwer zu auditieren
  • Bei Consumer-Apps ist das manchmal akzeptabel, aber
    • in Bereichen wie Finanzen/Gesundheitswesen ist der Schutz sensibler Daten unverzichtbar
    • auch bei der Tokenisierung von RWAs ist das ein großes Hindernis
  • Die Kernfrage ist die Kontrolle des Datenzugriffs
    • Wer kontrolliert sensible Daten?
    • Wie werden sie bewegt?
    • Wer (oder was) greift unter welchen Bedingungen darauf zu?
  • Derzeit muss man zur Wahrung von Vertraulichkeit
    • auf zentralisierte Dienste setzen oder
    • teure Custom-Setups selbst aufbauen
    • deshalb kann TradFi die Vorteile des Onchain-Datenmanagements nicht nutzen
  • Wenn Agenten beginnen, autonom zu suchen/handeln/entscheiden, braucht es keine „Best-Effort-Vertrauensbasis“, sondern kryptografische Garantien
  • Deshalb braucht es secrets-as-a-service
    • programmierbare native Zugriffsregeln
    • clientseitige Verschlüsselung
    • dezentrales Schlüsselmanagement
    • Durchsetzung, wer was unter welchen Bedingungen/für welche Dauer entschlüsseln kann
    • Onchain-Durchsetzung davon
  • In Kombination mit verifizierbaren Datensystemen
    • wird Privatsphäre nicht zu einer „auf die App aufgetragenen Schicht“, sondern
    • kann Teil der Kerninfrastruktur des Internets werden

Vermögensverwaltung für alle

  • Personalisierte Vermögensverwaltung war ursprünglich ein Service nur für HNWIs
    • weil sie teuer war und eine hohe operative Komplexität hatte
  • Wenn mehr Vermögenswerte tokenisiert werden,
    • wird die Ausführung von Strategien/Rebalancing über Krypto-Rails sofort und kostengünstig möglich
    • AI-Empfehlungen/Copilots verstärken die Personalisierung
  • Das ist nicht einfach nur ein Robo-Advisor
    • alle erhalten Zugang zu aktivem Portfoliomanagement statt nur zu „passiven“ Produkten
  • 2025 begann TradFi, die Kryptoquote zu erhöhen
  • 2026 wachsen nicht mehr Plattformen, die auf „Vermögenserhalt“, sondern auf Vermögensaufbau optimiert sind
    • Fintechs wie Revolut und Robinhood
    • CEXs wie Coinbase erweitern mit ihrem Vorteil im Tech-Stack den Markt
  • Im DeFi-Bereich
    • bieten Tools wie Morpho Vaults automatische Allokation auf Basis risikobereinigter Renditen
    • das kann zum Kern-Renditebereich eines Portfolios werden
  • Auch cashnahe Assets verändern sich
    • Stablecoins statt Fiat halten
    • tokenisierte MMFs statt traditioneller MMFs halten
    • größerer Spielraum für Zusatzrenditen/Strategien
  • Tokenisierung erweitert auch den Zugang zu privaten Assets
    • Private Credit, Pre-IPO, Private Equity usw.
    • mehr Umlauffähigkeit bei gleichzeitiger Wahrung von Compliance/Reporting
  • Wenn die Bausteine eines Vermögensportfolios tokenisiert sind,
    • wird automatisches Rebalancing ohne Überweisungen möglich

Das Internet wird zur Bank

  • Wenn Agenten massenhaft auftreten und
    • im Hintergrund automatisierter Handel statt Klicks zunimmt,
    • muss sich die Art ändern, wie Geld (Wert) bewegt wird
  • Wenn Systeme nicht über schrittweise Anweisungen, sondern über Intentionen gesteuert werden,
    • muss sich auch Wert so schnell und frei wie Information bewegen können
  • Blockchain/Smart Contracts/neue Protokolle bilden dafür die Grundlage
  • Smart Contracts können bereits heute
    • Dollar-Zahlungen weltweit in Sekunden abwickeln
  • 2026 machen Primitives wie x402
    • Zahlungen programmierbar und reaktiv
  • Mögliche Szenarien
    • Agenten begleichen Kosten für Daten/GPU/API-Aufrufe untereinander sofort
    • ohne Rechnungen/Abstimmung/Batches, ohne Erlaubnis
    • in Software-Updates sind Zahlungsregeln/Limits/Audit-Trails eingebaut
    • ohne Fiat-Anbindung/Händler-Onboarding/Bankintegration
    • Prediction Markets rechnen sich in Echtzeit selbst ab, passend zum Fortschritt des Ereignisses
  • Auf diesem Niveau werden Zahlungsflüsse keine separate Betriebsschicht mehr sein, sondern Netzwerkverhalten
  • Banken werden zur grundlegenden Verrohrung des Internets
    • Vermögenswerte werden zu Infrastruktur
  • Wenn Geld zu einem Paket wird, das das Internet routen kann,
    • „unterstützt“ das Internet das Finanzsystem nicht mehr nur, sondern
    • wird das Finanzsystem selbst

Wenn rechtliche Strukturen zu technischen Strukturen aufschließen, entfaltet sich das Potenzial der Blockchain

  • Einer der größten Gründe, warum es in den vergangenen zehn Jahren in den USA schwer war, Netzwerke aufzubauen, war rechtliche Unsicherheit
  • Das Wertpapierrecht hat ein auf „Unternehmen“ ausgerichtetes Raster gewaltsam über „Netzwerke“ gelegt
    • und damit eine Situation selektiver Durchsetzung fortgeschrieben
  • Das Ergebnis
    • Risikominderung in Rechtsfragen wurde wichtiger als Produktstrategie
    • Anwälte saßen weiter vorn als Ingenieure
  • Von dieser Verzerrung verursachte Nebenwirkungen
  • Doch Regulierung der Marktstruktur hat großes Potenzial, die Lage zu verändern
    • die Regierung ist einer Verabschiedung näher als jemals zuvor
  • Erwartete Veränderungen bei einer Verabschiedung
    • Anreize für Transparenz
    • klare Standards
    • das Ende der „enforcement roulette
    • strukturierte Wege für Finanzierung/Token-Launch/Dezentralisierung
  • So wie sich nach GENIUS die Verbreitung von Stablecoins explosionsartig beschleunigte, kann Regulierung der Marktstruktur für „Netzwerke“ einen noch viel größeren Wandel bringen
  • Fazit
    • Wenn rechtliche Strukturen mit technischen Strukturen zusammenpassen,
    • können Blockchain-Netzwerke als echte Netzwerke funktionieren
    • Offenheit, Autonomie, Kombinierbarkeit, glaubwürdige Neutralität und Dezentralisierung werden Realität

Noch keine Kommentare.

Noch keine Kommentare.