- Der Venture-Capital-Geber a16z hat in einem Bericht die wichtigsten Trends der Technologiebranche im Jahr 2026 prognostiziert; enthalten sind die Einschätzungen der Investment-Partnerteams aus den Bereichen Infrastruktur, Growth, Bio & Health, Speedrun, amerikanische Dynamik, Apps und Krypto
- AI-Agenten werden die Unternehmensinfrastruktur grundlegend neu gestalten, wobei die Aufbereitung multimodaler Daten und agent-native Infrastruktur zu zentralen Aufgaben werden
- In Unternehmenssoftware nimmt die Bedeutung von Systemen der Aufzeichnung (System of Record) ab; stattdessen erfolgt der Übergang zu autonomen Workflow-Engines, in denen AI Daten direkt liest, schreibt und Schlussfolgerungen zieht
- Stablecoins werden sich als gängiges Zahlungsmittel etablieren, während die Ausgabe von Onchain-Assets und Privacy-Blockchains als Unterscheidungsmerkmale hervorstechen
- Personalisierte AI-Services werden in Bildung, Gesundheit und Medien maßgeschneiderte Erlebnisse für die breite Masse liefern; prognostiziert wird ein „Year of Me“
# [Infrastructure]
Startups, die das Chaos multimodaler Daten bändigen - Jennifer Li
- Die unstrukturierten und multimodalen Daten in Unternehmen sind der größte Engpass bei der Einführung von AI und zugleich der am wenigsten genutzte Vermögenswert
- PDFs, Screenshots, Videos, Logs, E-Mails und semistrukturierte Daten sammeln sich im gesamten Unternehmen an
- Die Modellleistung verbessert sich schnell, aber die Eingabedaten werden immer chaotischer
- Dadurch entstehen Halluzinationen in RAG-Systemen sowie subtile und teure Fehler von Agenten
- Zentrale Arbeitsabläufe hängen weiterhin stark von menschlicher QA ab
- Der begrenzende Faktor für AI-Unternehmen verlagert sich von Compute zu Datenentropie
- In Umgebungen mit unstrukturierten Daten zerfallen Aktualität, Struktur und Wahrheitsgehalt fortlaufend
- Rund 80 % des Unternehmenswissens befinden sich in diesem unstrukturierten Bereich
- Die Erschließung unstrukturierter Daten wird zu einer Generationschance
- Erforderlich ist ein System, das multimodale Daten fortlaufend ordnet, strukturiert, validiert und governiert
- Nur so können nachgelagerte AI-Workloads tatsächlich vertrauenswürdig funktionieren
- Der Anwendungsbereich weitet sich auf nahezu alle Enterprise-Workflows aus
- Vertragsanalyse, Onboarding, Schadensbearbeitung, Compliance, Kundensupport, Beschaffung
- Engineering-Suche, Vertriebsunterstützung, Analyse-Pipelines
- Eingeschlossen sind alle Agenten-Workflows, die von vertrauenswürdigem Kontext abhängen
- Entscheidend ist die Plattformschicht
- Sie extrahiert Struktur aus Dokumenten, Bildern und Videos
- Sie gleicht Datenkonflikte ab und stellt Pipelines wieder her
- Sie hält Daten aktuell und jederzeit durchsuchbar
- Sie beherrscht den Kern von Unternehmenswissen und -prozessen
AI belebt das Recruiting in der Cybersicherheit wieder - Joel de la Garza
- Das größte Problem der Cybersicherheit in den vergangenen zehn Jahren war das Recruiting
- Zwischen 2013 und 2021 stieg die Zahl unbesetzter Security-Stellen von unter 1 Million auf 3 Millionen
- Der Kern des Problems liegt in der Struktur von Security-Aufgaben auf Level 1
- Hochqualifizierte Fachkräfte werden eingestellt und für wiederholende, zermürbende Aufgaben wie Log-Reviews eingesetzt
- Kaum jemand möchte diese Arbeit dauerhaft machen
- Security-Organisationen schaffen sich ihre Routinearbeit selbst
- Sie führen Security-Produkte ein, die alles erkennen sollen
- Das Ergebnis ist eine Struktur, in der jede Warnung von Menschen geprüft werden muss
- Das erzeugt keine echte Knappheit, sondern eine falsche Knappheit an Arbeitskraft
- 2026 durchbricht AI diesen Teufelskreis
- Ein großer Teil repetitiver und redundanter Security-Arbeit wird automatisiert
- Die Hälfte der Arbeit großer Security-Teams lässt sich durch Automatisierung lösen
- Das schwierigste Problem ist die Entscheidung, was automatisiert werden soll
- Wer in Arbeit versinkt, kann Automatisierungskandidaten nicht identifizieren
- AI-native Security-Tools treffen diese Entscheidung an ihrer Stelle
- Sie befreien Security-Teams von repetitiver Arbeit
- Dadurch können sie sich auf die Verfolgung von Angreifern, den Aufbau von Systemen und das Schließen von Schwachstellen konzentrieren
Agent-native Infrastruktur wird zur Grundvoraussetzung - Malika Aubakirova
- Der größte Schock für die Infrastruktur im Jahr 2026 kommt nicht von außen, sondern durch interne Veränderungen
- Weg von vorhersehbarem menschlichem Traffic mit niedriger Parallelität
- Rekursive und explosionsartige Agenten-Workloads werden zum Normalfall
- Bestehende Enterprise-Backends wurden für Menschen entworfen
- Sie gehen von einer Systemantwort auf eine menschliche Handlung aus
- Sie berücksichtigen nicht, dass ein einzelnes Agentenziel tausende Unteraufgaben gleichzeitig erzeugen kann
- Normale Agentenarbeit sieht für Legacy-Systeme wie ein Angriff aus
- Code-Refactoring oder die Auswertung von Security-Logs werden als DDoS-Traffic wahrgenommen
- Im Zentrum der Reaktion steht die Neugestaltung der Control Plane
- Agent-native Infrastruktur wird zur Grundvoraussetzung
- Thundering-Herd-Muster werden nicht als Ausnahme, sondern als Grundzustand behandelt
- Die Leistungsmaßstäbe ändern sich grundlegend
- Minimierung von Cold Starts
- Zusammenbruch der Latenzschwankungen
- Sprunghafter Anstieg der Parallelitätsgrenzen um Größenordnungen
- Der Engpass ist nicht Compute, sondern Koordination (coordination)
- Routing, Locking, Zustandsverwaltung und Policy-Durchsetzung werden zum Kern großskaliger paralleler Ausführung
- Nur Plattformen, die Umgebungen mit überbordender Tool-Ausführung standhalten, werden überleben
Kreativ-Tools entwickeln sich multimodal weiter - Justine Moore
- AI beherrscht bereits die zentralen Bausteine des Storytellings
- Sprach-, Musik-, Bild- und Videogenerierung sind möglich
- Das Problem ist Kontrolle
- Sobald man über einmalige Clips hinausgeht, wird es schwierig, das gewünschte Ergebnis zu erzielen, und die Kosten steigen stark
- Von klassischer Regie-Kontrolle ist das noch weit entfernt
- Kreative wollen referenzbasierte multimodale Bearbeitung
- Ein 30-Sekunden-Video wird als Input verwendet, ein neuer Charakter hinzugefügt und die Szene fortgeführt
- Eine Szene wird so umgebaut, als wäre sie aus einem anderen Kamerawinkel aufgenommen worden
- Die gleiche Bewegung wie in einem Referenzvideo wird reproduziert
- 2026 wird zum Jahr der multimodalen AI
- Referenz-Content jeder Art kann als Input genutzt werden
- Das Erzeugen neuer Szenen und das Bearbeiten bestehender Szenen gehen nahtlos ineinander über
- Frühe Produkte wie Kling O1 und Runway Aleph sind bereits erschienen
- Sowohl auf der Modellebene als auch auf der Anwendungsebene sind weitere Innovationen nötig
- Content-Erstellung ist der Killer-Use-Case von AI
- Vom Meme-Creator bis zum Hollywood-Regisseur entsteht ein breiter Markt
Der AI-native Daten-Stack entwickelt sich weiter - Jason Cui
- Im vergangenen Jahr hat sich der moderne Daten-Stack schnell konsolidiert
- Die arbeitsteilige Struktur rund um Erfassung, Transformation und Compute zerfällt
- Bundling und integrierte Plattformen werden zum Standard
- Die Fusion von Fivetran und dbt sowie der Aufstieg von Databricks zeigen das
- Das Ökosystem wirkt ausgereift, doch eine wirklich AI-native Struktur steckt noch in den Anfängen
- Dateninfrastruktur und AI-Infrastruktur wachsen in einem untrennbaren Zustand zusammen
- Vektor-Datenbanken etablieren sich als zentrale Komponente
- Der Betrieb neben strukturierten Daten wird zur Grundstruktur
- Die Schlüsselfrage im Agentenzeitalter ist das Kontextproblem
- Es muss kontinuierlich Zugriff auf die richtigen Daten und die semantische Schicht geben
- Über mehrere Systeme der Aufzeichnung hinweg müssen konsistente Geschäftsdefinitionen erhalten bleiben
- BI-Tools und Spreadsheets verändern sich grundlegend
- Daten-Workflows verlagern sich hin zu agentenzentrierten, automatisierungszentrierten Abläufen
Das Jahr, in dem wir in Videos hineingehen - Yoko Li
- 2026 ist Video kein Medium mehr, das nur passiv konsumiert wird
- Es wird zu einem Raum, den man tatsächlich betritt und in dem man handelt
- Videomodelle verarbeiten Zeit und Konsistenz
- Sie erinnern sich an frühere Szenen
- Sie reagieren auf Nutzerverhalten
- Sie erhalten dauerhafte Konsistenz, ähnlich der physischen Welt
- Weg von kurzer, fragmentierter Videogenerierung
- Charaktere, Objekte und Physik bleiben lange genug bestehen
- Es werden Entwicklungen möglich, bei denen Handlungen zu Konsequenzen führen
- Video wandelt sich zu einem konstruierbaren Medium
- Roboter üben darin
- Spiele entwickeln sich darin weiter
- Designer erstellen Prototypen darin
- Agenten handeln direkt darin und lernen
- Das Ergebnis sind keine Clips, sondern lebendige Umgebungen
- Die Lücke zwischen Wahrnehmung und Handlung schrumpft stark
- Es entsteht das Gefühl, im generierten Video tatsächlich zu existieren
# [Growth]
Die Ära der Systeme der Aufzeichnung geht zu Ende - Sarah Wang
- Die eigentliche Veränderung bei Enterprise-Software im Jahr 2026 besteht darin, dass Systeme of Record ihre zentrale Stellung verlieren
- AI beseitigt die Distanz zwischen Intent und Execution nahezu vollständig
- Modelle lesen, schreiben und schlussfolgern direkt über operative Daten hinweg
- ITSM und CRM wandeln sich von reinen Speichern zu autonomen Workflow-Engines
- Durch Fortschritte bei Reasoning-Modellen und Agent-Workflows erweitert sich die Rolle von Systemen
- Sie reagieren nicht nur, sondern übernehmen auch Prognosen, Koordination und End-to-End-Ausführung
- Das Zentrum der Interfaces verschiebt sich
- Statt bildschirmzentrierter UIs tritt eine dynamische Agenten-Schicht in den Vordergrund
- Bestehende Systeme of Record werden in die Persistence Tier zurückgedrängt
- Die strategische Kontrolle verlagert sich
- Nicht mehr entscheidend ist, wer Daten speichert
- Entscheidend wird, wer die intelligente Ausführungsumgebung beherrscht, die Mitarbeitende tatsächlich nutzen
Vertical AI entwickelt sich zum Multiplayer - Alex Immerman
- Vertical AI wächst mit beispielloser Geschwindigkeit
- Im Gesundheitswesen, im Rechtsbereich und im Wohnungssektor wurden in nur wenigen Jahren $100M+ ARR erreicht
- Auch Finanz- und Accounting-Bereiche ziehen schnell nach
- Die erste Entwicklungsstufe ist Informationssuche
- Benötigte Informationen werden gefunden, extrahiert und zusammengefasst
- 2025 folgt der Übergang in die Phase des Reasoning
- Hebbia analysiert Finanzberichte und erstellt Modelle
- Basis gleicht Trial Balances aus mehreren Systemen ab
- EliseAI diagnostiziert Wartungsprobleme und beauftragt den passenden Vendor
- 2026 startet der Multiplayer-Modus
- Vertical Software hat Stärken bei domänenspezifischen UIs, Daten und Integrationen
- Doch reale Arbeit ist ihrem Wesen nach eine Struktur mit Zusammenarbeit vieler Beteiligter
- Damit Agenten Arbeit stellvertretend übernehmen können, ist Zusammenarbeit unverzichtbar
- Käufer und Verkäufer
- Mieter, Berater und Vendoren
- Jede beteiligte Partei hat unterschiedliche Berechtigungen, Workflows und Compliance-Anforderungen
- Derzeit arbeitet AI jeweils isoliert
- Eine AI, die Verträge analysiert, ist nicht mit dem CFO verbunden
- Eine Wartungs-AI kennt die Termine des Außendienstpersonals nicht
- Multiplayer-AI koordiniert genau das
- Sie routet Aufgaben zwischen Stakeholdern
- Sie hält den Kontext aufrecht
- Sie synchronisiert Änderungen
- Die AI der Gegenseite verhandelt innerhalb eines festgelegten Rahmens
- Ungleichgewichte werden zur menschlichen Prüfung eskaliert
- Korrekturen durch Senior Partner fließen in das Lernen der gesamten Organisation ein
- Je größer der durch Zusammenarbeit geschaffene Wert, desto höher die Wechselkosten
- Es entstehen Netzwerkeffekte, die AI-Apps bisher nicht hatten
- Die Zusammenarbeitsschicht selbst wird zum Moat
Für Agenten statt für Menschen bauen - Stephenie Zhang
- Ab 2026 nutzen Menschen das Web über ihre eigenen Agenten
- Elemente, die für menschlichen Konsum wichtig waren, funktionieren nicht länger auf dieselbe Weise
- Bisherige Optimierungsmethoden setzen menschliches Verhalten voraus
- Top-Platzierungen in Suchergebnissen
- Präsenz auf der ersten Seite eines Marketplace
- Ein Aufbau, der mit TL;DR beginnt
- Menschen können wichtige Sätze übersehen, Agenten jedoch nicht
- Selbst einen zentralen Satz, der auf Seite 5 versteckt ist, findet ein Agent sofort
- Der Wandel betrifft auch das Software-Design
- Apps wurden auf menschliche Blicke und Klicks hin entworfen
- Maßstab für Optimierung waren gute UI und intuitive Flows
- Da Agenten Interpretation und Suche übernehmen, ändern sich die Maßstäbe
- Visuelles Design ist nicht mehr der zentrale Faktor für Verständnis
- Statt dass Engineers auf Grafana schauen, interpretiert ein AI-SRE die Telemetrie und fasst sie in Slack zusammen
- Statt dass das Sales-Team ein CRM durchforstet, liefert ein Agent automatisch Muster und Zusammenfassungen
- Jetzt wird nicht mehr für Menschen, sondern für Agenten entworfen
- Nicht visuelle Hierarchie, sondern Maschinenlesbarkeit wird zum Optimierungsziel
- Dieser Wandel verändert sowohl die Art des Schaffens als auch die Werkzeuge selbst
In AI-Apps ist die KPI Screen Time am Ende - Santiago Rodriguez
- In den vergangenen 15 Jahren war Screen Time die zentrale Kennzahl für Wertschöpfung
- Sehdauer bei Netflix
- Zahl der Klicks im medizinischen EHR
- Nutzungszeit von ChatGPT
- Diese Kennzahl wird bald wirkungslos
- Ergebnisbasierte Abrechnung setzt sich durch
- Die Anreize von Vendoren und Nutzern richten sich aneinander aus
- Die erste Kennzahl, die verschwindet, ist Screen Time
- In der Realität zeigt sich der Wandel bereits
- ChatGPT DeepResearch schafft großen Wert, auch wenn man kaum auf den Bildschirm schaut
- Abridge erfasst Behandlungsgespräche automatisch und erledigt Folgeaufgaben
- Cursor erstellt ganze Apps, sodass Entwickler den nächsten Zyklus planen können
- Hebbia erstellt auf Basis von Hunderten Offenlegungen Decks und gibt Investmentbankern ihren Schlaf zurück
- Es entsteht eine neue Herausforderung
- Um festzulegen, wie viel pro Nutzer berechnet werden soll, ist eine komplexere ROI-Messung nötig
- AI-Apps steigern Wert gleichzeitig in vielen Dimensionen
- Zufriedenheit von Ärzten
- Produktivität von Entwicklern
- Lebensqualität von Finanzanalysten
- Glück von Konsumenten
- Unternehmen, die ROI am einfachsten erklären, setzen sich am Markt durch
# [Bio + Health]
Der Aufstieg gesunder MAUs - Julie Yoo
- 2026 entsteht mit Healthy MAUs (gesunde MAUs) eine zentrale Kundengruppe im Gesundheitswesen
- Es handelt sich um Konsumenten, die aktuell nicht krank sind
- aber ihre Gesundheit kontinuierlich verstehen und überwachen wollen
- Das bisherige Gesundheitssystem hat sich auf drei Nutzergruppen konzentriert
- Sick MAUs: Patienten mit hohen Kosten und punktuell stark ansteigendem Behandlungsbedarf
- Sick DAUs: Nutzer wie Schwerkranke oder chronisch Erkrankte, die langfristige und intensive Versorgung benötigen
- Healthy YAUs: vergleichsweise gesunde Nutzer, die kaum medizinische Einrichtungen aufsuchen
- Healthy YAUs tragen jederzeit das Risiko, zu Sick MAUs oder Sick DAUs zu werden
- Präventive Betreuung kann die Geschwindigkeit dieses Übergangs verlangsamen
- Das Problem liegt in der bestehenden Vergütungsstruktur
- Ein behandlungszentriertes, reaktionsbasiertes Vergütungssystem im Gesundheitswesen belohnt Therapie stärker als Prävention
- Der Zugang zu regelmäßigen Check-ins oder Monitoring-Services ist gering
- Versicherungen bezahlen präventionsorientierte Services kaum
- Healthy MAUs schließen diese Lücke
- Sie sind im Moment nicht krank
- wollen ihren Gesundheitszustand aber wiederholt prüfen und verstehen
- und haben das Potenzial, die größte Zielgruppe unter allen Konsumenten zu werden
- Eine Welle von Services für diese Kundengruppe beginnt
- AI-native Startups
- neu verpackte Services etablierter Healthcare-Unternehmen
- alle bewegen sich hin zu regelmäßigen, abonnementbasierten Angeboten
- AI senkt die Kostenstruktur der Gesundheitsversorgung
- durch Automatisierung von Monitoring und Analyse
- und durch geringere Abhängigkeit von Personal
- Dadurch eröffnet sich die Möglichkeit präventionsorientierter Versicherungsprodukte
- Konsumenten gewöhnen sich zunehmend an Abo-Modelle mit Selbstzahlung
- Healthy MAUs werden zur zentralen Kundengruppe der nächsten Generation von Healthtech
- sie sind kontinuierlich eingebunden
- datenbasiert
- und handeln präventionsorientiert
# [Speedrun]
World Models rücken ins Zentrum des Storytellings - Jon Lai
- Im Zentrum des Storytellings im Jahr 2026 stehen AI-gestützte World Models
- Es entstehen neue Formate auf Basis interaktiver virtueller Welten und einer digitalen Ökonomie
- Marble (World Labs) und Genie 3 (DeepMind) erzeugen allein mit Text-Prompts vollständige 3D-Umgebungen
- Nutzer erkunden diese Welten direkt wie in einem Spiel
- Während Creator diese Tools übernehmen, entstehen völlig neue Erzählformate
- Es werden riesige Welten geschaffen, die kollaboratives Schaffen ermöglichen
- Letztlich entwickelt sich das in Richtung eines „generativen Minecraft“
- Spielmechaniken und natürlichsprachige Programmierung verschmelzen
- Befehle wie „Erschaffe einen Pinsel, der alles, was er berührt, rosa färbt“ wirken als Regeln der Welt
- Die Grenze zwischen Spielern und Creatorn verschwindet
- Nutzer werden nicht nur zu Konsumenten, sondern zu Mitautoren
- Ein verknüpftes generatives Multiversum entsteht
- Genres wie Fantasy, Horror und Adventure existieren innerhalb eines einzigen Ökosystems nebeneinander
- Innerhalb dieser Welten wird die digitale Ökonomie aktiviert
- Erstellung von Assets
- Einführungshilfen für neue Nutzer
- Monetarisierung durch die Entwicklung neuer Interaktions-Tools
- Diese Welten werden über Unterhaltung hinaus als Simulationsumgebungen genutzt
- Training von AI Agents
- Lernen für Robotik
- Darüber hinaus Ausweitung zu Experimentierfeldern für AGI
- Der Aufstieg von World Models ist nicht bloß ein neues Spielgenre, sondern das Entstehen eines neuen kreativen Mediums und einer neuen ökonomischen Frontlinie
Das „Jahr für mich“ - Josh Lu
- 2026 ist „The Year of Me“, das Jahr, in dem Produkte von Massenproduktion zu maßgeschneiderter Personalisierung wechseln
- Im Bildungsbereich hat der Wandel bereits begonnen
- Startups wie Alphaschool bieten AI-Tutoren, die sich an Tempo und Neugier jedes einzelnen Schülers anpassen
- Ein Grad an Personalisierung, der früher nur mit Nachhilfekosten von Zehntausenden Dollar pro Schüler möglich war
- Auch im Gesundheitsbereich wird Personalisierung alltäglich
- AI entwirft Kombinationen aus Supplements, Trainingsplänen und Ernährungsroutinen, abgestimmt auf individuelle Biomarker
- Das wird ohne Abhängigkeit von Trainern oder Laboren möglich
- Auch Medien werden personalisiert
- Nachrichten, Sendungen und Geschichten werden nach persönlichen Interessen und bevorzugtem Ton neu zusammengestellt
- Die Gewinner des vergangenen Jahrhunderts waren Unternehmen, die den Durchschnittskonsumenten gefunden haben
- Die Gewinner des nächsten Jahrhunderts sind Unternehmen, die den im Durchschnitt verborgenen Einzelnen finden
- 2026 markiert den Zeitpunkt, an dem die Welt aufhört, „alle“ zu optimieren, und beginnt, „dich“ zu optimieren
Die erste AI-native Universität - Emily Bennett
- 2026 entsteht die AI-native Universität
- Eine Bildungseinrichtung, die von Grund auf um intelligente Systeme herum entworfen wurde
- Bisher haben klassische Universitäten AI nur punktuell eingeführt
- Sie blieb auf Benotung, Tutoring und Terminplanung beschränkt
- Nun entsteht eine akademische Organisation, die selbst lernt und sich optimiert
- Sie passt sich über Daten-Feedback-Schleifen an – vom Unterricht über Betreuung und Forschungszusammenarbeit bis zum Gebäudebetrieb
- Jedes Element der Universität verändert sich in Echtzeit
- Stundenpläne optimieren sich selbst
- Leselisten werden jede Nacht aktualisiert, um neueste Forschung einzubeziehen
- Lernpfade werden sofort an Tempo und Kontext der Studierenden angepasst
- Es gibt bereits Vorboten
- ASU betreibt durch die unternehmensweite Zusammenarbeit mit OpenAI Hunderte AI-Projekte
- SUNY verankert AI Literacy als Pflichtbestandteil in den Allgemeinbildungsfächern
- An der AI-nativen Universität verändert sich die Rolle der Professoren
- Sie vermitteln nicht mehr nur Wissen, sondern werden zu Architekten des Lernens
- Sie kuratieren Daten und justieren Modelle
- Sie lehren Studierende, maschinelles Schlussfolgern kritisch zu behandeln
- Auch die Bewertung wandelt sich
- Plagiatserkennung und Nutzungsverbote verschwinden
- Bewertet wird, wie AI eingesetzt wurde
- Transparenz und ein maßvoller Einsatz werden zum Maßstab
- Die gesamte Wirtschaft braucht Talente, die AI entwerfen, betreiben und in Zusammenarbeit einsetzen können
- Die AI-native Universität wird zum Personal-Motor der neuen Wirtschaft, der diese Talente hervorbringt
# [American Dynamism]
Aufbau einer AI-nativen industriellen Basis - David Ulevitch
- Die Bereiche, die die reale Stärke der US-Wirtschaft erzeugen, rücken wieder ins Zentrum
- Energie, Fertigung, Logistik und Infrastruktur kehren als zentrale Säulen zurück
- Die wichtigste Veränderung ist das Entstehen einer echten AI-nativen, software-first Industrie-Basis
- Sie beginnt bei Simulation, automatisiertem Design und AI-gestütztem Betrieb
- Es geht nicht darum, die Vergangenheit zu modernisieren, sondern die nächste Generation von Grund auf aufzubauen
- In der gesamten Industrie eröffnen sich neue Chancen
- Fortgeschrittene Energiesysteme
- Robotik-zentrierte schwere Industrieproduktion
- Bergbau der nächsten Generation
- Biologie- und enzymbasierte chemische Prozesse als Grundlage aller Industrien
- AI gestaltet die Kernprozesse der Industrie neu
- Sauberere Reaktordesigns
- Optimierung der Rohstoffgewinnung
- Besseres Enzyme Engineering
- Präzise Steuerung autonomer Maschinenflotten
- Auch die Welt außerhalb der Fabrik wird neu aufgebaut
- Autonome Sensoren und Drohnen
- Modernste AI-Modelle machen Häfen, Schienenwege, Stromnetze, Pipelines, Militärstützpunkte und Rechenzentren kontinuierlich sichtbar
- Die reale Welt braucht neue Software
- Die Gründer, die sie entwickeln, entscheiden über den amerikanischen Wohlstand des nächsten Jahrhunderts
Renaissance der amerikanischen Fabrik - Erin Price-Wright
- Das erste große Jahrhundert der USA wurde auf industrieller Leistungsfähigkeit aufgebaut
- Durch Offshoring und das gesellschaftsweite Scheitern beim Aufbau wurde viel Substanz verloren
- Jetzt setzt wieder Bewegung ein
- Die Wiedergeburt der amerikanischen Fabrik mit Software und AI im Zentrum ist im Gang
- 2026 geht die gesamte Industrie Probleme mit einer Factory-first-Denkweise an
- Das gilt für Energie, Bergbau, Bauwesen und Fertigung insgesamt
- Der Schlüssel ist die Verbindung aus modularer AI und Autonomie + Facharbeitern
- So lassen sich maßgeschneiderte und komplexe Prozesse wie ein Fließband betreiben
- Dieser Ansatz macht Folgendes möglich
- Komplexe Regulierung und Genehmigungen schnell und wiederholt zu durchlaufen
- Designzyklen zu verkürzen und von Beginn an fertigungsgerechtes Design umzusetzen
- Die Koordination von Großprojekten effizient zu managen
- Für Menschen schwierige oder gefährliche Aufgaben durch autonome Systeme zu beschleunigen
- Das Denken à la Henry Ford wird ab Tag 0 angewendet
- Es wird mit Blick auf Skalierung und Wiederholbarkeit entworfen
- Kombiniert mit modernster AI
- Die Ergebnisse zeigen sich schnell
- Massenproduktion von Reaktoren
- Ausweitung des Wohnungsangebots
- Ultraschneller Bau von Rechenzentren
- Die Aussage „Die Fabrik ist das Produkt“ wird wieder Realität
- Der Eintritt in ein neues industrielles goldenes Zeitalter beginnt
Die nächste Welle der Observability ist nicht digital, sondern physisch - Zabie Elmgren
- In den vergangenen zehn Jahren hat Software-Observability digitale Systeme transparent gemacht
- Über Logs, Metriken und Traces wurden Code und Server verständlich
- Dieselbe Innovation weitet sich nun auf die physische Welt aus
- In den USA sind bereits mehr als eine Milliarde Kameras und Sensoren im Einsatz
- Physische Observability, die Städte, Stromnetze und Infrastruktur in Echtzeit verständlich macht, wird dringlich und machbar
- Diese Wahrnehmungsschicht eröffnet die nächste Stufe von Robotik und Autonomie
- Dafür braucht es ein gemeinsames Fabric, mit dem Maschinen die physische Welt wie Code wahrnehmen
- Gleichzeitig gibt es Risiken: Technologien zur Waldbranderkennung und Vermeidung von Industrieunfällen können auch in eine dystopische Überwachung umschlagen
- Gewinnen werden Unternehmen, die Vertrauen erwerben: datenschutzwahrend, interoperabel und AI-native
- Es braucht Systeme, die die Gesellschaft verständlicher machen, ohne sie weniger frei zu machen
- Wer dieses Fabric des Vertrauens aufbaut, definiert die Observability der nächsten zehn Jahre
Der elektro-industrielle Stack bewegt die Welt - Ryan McEntush
- Die nächste industrielle Revolution findet nicht nur in Fabriken statt, sondern im Inneren dessen, was Maschinen ausmacht
- Software hat Denken und Design verändert und verändert nun Mobilität, Bau und Produktion
- Es entsteht eine Verbindung aus Elektrifizierung, Materialien und AI
- In die physische Welt hält echte Software-Steuerung Einzug
- Maschinen erkennen, lernen und handeln selbstständig
- Das ist der Electro-Industrial Stack
- Die Basistechnologie für Elektrofahrzeuge, Drohnen, Rechenzentren und moderne Fertigung
- Er verbindet Technologien, die Atome bewegen, mit Bits
- Die Bestandteile des Stacks
- Mineralraffination → Komponenten
- In Batterien gespeicherte Energie
- Durch Leistungselektronik gesteuerter Strom
- Über Präzisionsmotoren übertragene Bewegung
- Software, die alles koordiniert
- Er ist das unsichtbare Fundament physischer Automatisierung und macht den Unterschied zwischen Software, mit der man ein Taxi ruft, und Software, die das Lenkrad übernimmt
- Die Fähigkeit, diesen Stack aufzubauen, schwindet: Raffination kritischer Materialien & Fertigung fortschrittlicher Chips
- Wenn die USA das nächste industrielle Zeitalter anführen wollen, müssen sie Hardware selbst herstellen
- Das Land, das den Electro-Industrial Stack beherrscht, bestimmt die Zukunft von Industrie- und Militärtechnologie
- Software hat die Welt verschlungen. Jetzt setzt sie die Welt in Bewegung
Autonome Labore beschleunigen wissenschaftliche Entdeckungen - Oliver Hsu
- Die Fähigkeiten der Modelle entwickeln sich multimodal weiter
- Auch die robotischen Manipulationsfähigkeiten verbessern sich kontinuierlich
- Durch das Zusammenspiel dieser beiden Strömungen entstehen autonome Labore
- Hypothesenbildung - Versuchsplanung - Durchführung - Schlussfolgerung und Ergebnisanalyse - Iteration der nächsten Forschungsrichtung
- Der End-to-End-Loop wissenschaftlicher Entdeckung schließt sich automatisch
- Teams, die solche Labore bauen, sind ihrem Wesen nach interdisziplinär: AI, Robotik, Physik- und Lebenswissenschaften, Fertigung, Operations
- Durch unbemannte (
lights-out) Experimente werden kontinuierliche Experimente möglich
- In vielen Bereichen beschleunigt sich das Tempo von Entdeckungen drastisch
Der Datenkreuzzug in Richtung Schlüsselindustrien - Will Bitsky
- Im Zentrum des AI-Diskurses 2025 standen Compute-Beschränkungen und Rechenzentren
- 2026 stehen Datenbeschränkungen und neue Daten-Schlachtfelder im Mittelpunkt, und dieses Schlachtfeld sind die Schlüsselindustrien
- In Schlüsselindustrien schlummern noch riesige Mengen unstrukturierter Daten: Lkw-Betrieb, Zählerablesung, Wartungsarbeiten, Produktionsprozesse, Montage und Tests
- All diese Abläufe werden zu Trainingsdaten für Modelle; wichtig ist nicht nur, was getan wurde, sondern wie es getan wurde
- Das Problem ist, dass in industriellen Umgebungen oft ein Datenverständnis fehlt: Erfassung, Annotation und Modelltraining gehören nicht zum industriellen Vokabular
- Die Datennachfrage explodiert
- Scale, Mercor und AI-Labore sammeln Prozessdaten aggressiv ein
- Sie stützen sich auf teure, manuell erstellte Daten
- Bestehende Industrieunternehmen haben einen strukturellen Vorteil
- Sie verfügen bereits über physische Infrastruktur und Arbeitskräfte
- Datenerfassung ist nahezu ohne Grenzkosten möglich
- Sie können eigene Modelle trainieren oder extern lizenzieren
- Startups unterstützen dabei
- Software für Erfassung, Annotation und Einwilligungsmanagement
- Sensor-Hardware und SDKs
- Reinforcement-Learning-Umgebungen und Trainingspipelines
- Letztlich sogar eigene intelligente Maschinen
# [Apps]
AI stärkt das Geschäftsmodell selbst - David Haber
- Herausragende AI-Startups automatisieren nicht nur Aufgaben, sondern verstärken die ökonomische Struktur ihrer Kunden selbst
- Am Beispiel von Anwaltskanzleien mit Erfolgshonorar
- Einnahmen entstehen nur, wenn sie gewinnen
- Unternehmen wie Eve nutzen Falldaten zu Prozessergebnissen, um die Gewinnwahrscheinlichkeit vorherzusagen
- Sie wählen bessere Fälle aus, bearbeiten mehr Mandanten und gewinnen häufiger
- AI bleibt nicht auf Kostensenkung beschränkt, sondern steigert direkt den Umsatz
- 2026 breitet sich diese Logik auf die gesamte Industrie aus
- AI wird tiefer an den Anreizen der Kunden ausgerichtet
- Dadurch entsteht ein aufzinsender Wettbewerbsvorteil, den bestehende Software nicht einholen kann
ChatGPT wird zum AI App Store - Anish Acharya
- Ein Produktzyklus im Consumer-Bereich braucht drei Dinge
- neue Technologie
- neues Verbraucherverhalten
- einen neuen Vertriebskanal
- AI erfüllt die ersten beiden Punkte, hatte aber keinen eigenen Vertriebskanal und war auf bestehende Netzwerke wie X oder Mundpropaganda angewiesen
- Das ändert sich
- Veröffentlichung des OpenAI Apps SDK
- Unterstützung für Mini-Apps durch Apple
- Einführung von Gruppennachrichten in ChatGPT
- Entwickler können nun direkt die 900 Millionen Nutzer von ChatGPT erreichen
- und zusammen mit neuen Mini-App-Netzwerken wie Wabi wachsen
- Mit diesem letzten Puzzlestück dürfte 2026 im Consumer-Tech-Bereich ein Goldrausch, der nur einmal pro Jahrzehnt kommt, beginnen
Sprachagenten erweitern ihr Einsatzgebiet jetzt richtig - Olivia Moore
- In den vergangenen 18 Monaten ist Voice AI von Science-Fiction zur Realität geworden: Terminplanung, Buchungsabwicklung, Umfragen, Bearbeitung eingehender Kundenanfragen
- Vom SMB bis zum Enterprise wird sie bereits breit eingesetzt
- Der Effekt ist eindeutig: Kostensenkung, zusätzlicher Umsatz, Menschen übernehmen höherwertige Arbeit
- Viele Unternehmen bleiben bislang noch in der Phase von Point Solutions und bearbeiten nur bestimmte Anruftypen
- Der nächste Schritt ist die umfassende Ausweitung
- Bearbeitung kompletter Workflows
- multimodale Interaktionen
- Management der gesamten Kundenbeziehung
- Dafür braucht es tief in Business-Systeme integrierte Agenten und Befugnisse, komplexere Interaktionen autonom zu bearbeiten
- Solange sich die Modellleistung weiter verbessert, gibt es keinen Grund, warum nicht jedes Unternehmen Voice-first AI betreiben sollte
Der Aufstieg promptloser, proaktiver Anwendungen - Marc Andrusko
- 2026 ist das Ende des Prompt-Eingabefelds
- Die nächste Generation von AI-Apps funktioniert ohne explizite Eingabe: Sie beobachtet das Verhalten der Nutzer und macht proaktiv Vorschläge
- Beispiele
- Eine IDE schlägt Refactorings vor, bevor darum gebeten wird
- Ein CRM formuliert direkt nach Ende eines Gesprächs eine Follow-up-E-Mail
- Ein Design-Tool erzeugt während der Arbeit Varianten
- Das Chat-Interface war nur ein Stützrad
- AI wird nun zu einer unsichtbaren Struktur, die sich durch den gesamten Workflow zieht
- Sie reagiert nicht auf Befehle, sondern auf Intention
AI baut das Fundament von Banken und Versicherungen neu - Angela Strange
- Etablierte Finanzunternehmen haben AI bisher auf Legacy-Systeme aufgesetzt: Dokumentenerkennung, Sprachagenten
- Der echte Wandel entsteht, wenn die Infrastruktur selbst neu aufgebaut wird
- 2026 wird das Risiko, AI nicht einzusetzen, größer als das Risiko des Scheiterns
- Große Finanzinstitute kündigen Verträge mit Legacy-Anbietern und wechseln zu AI-nativen Alternativen
- Merkmale neuer Finanzplattformen: Sie zentralisieren, normalisieren und erweitern Legacy- und externe Daten
- Das Ergebnis
- großflächige Parallelisierung von Workflows
- Aufgabenbearbeitung ohne Wechsel zwischen Systemen
- Hunderte Aufgaben auf einen Blick, von denen Agenten einen Teil automatisch erledigen
- Die Kategorien selbst verschmelzen
- Beispiel: KYC und Conversion Monitoring werden zu einer einheitlichen Risiko-Plattform zusammengeführt
- Die Gewinner werden 10-mal größere Unternehmen als die bisherigen
- Die Zukunft des Finanzwesens besteht nicht darin, AI auf bestehende Systeme aufzusetzen, sondern ein neues, auf AI basierendes Betriebssystem zu schaffen
Eine Forward-Deployed-Strategie verbreitet AI auf die übrigen 99 % - Joe Schmidt
- Bislang konzentrierten sich die Vorteile von AI auf das 1 % im Silicon Valley. Der Grund waren geografische Nähe und VC-Netzwerke
- 2026 kehrt sich dieser Trend um: Der Großteil der AI-Chancen liegt außerhalb des Silicon Valley
- Neue Gründer entdecken Chancen in Legacy-Industrien von innen heraus mit einem Forward-Deployed-Ansatz
- Besonders große Chancen gibt es in Bereichen wie
- klassische Beratung
- Systemintegration
- langsame Industrien wie die Fertigung
In den Fortune 500 entstehen eine neue Orchestrierungsschicht und neue Rollen - Seema Amble
- Unternehmen wechseln von einzelnen AI-Tools zu Multi-Agenten-Systemen
- Agenten müssen wie ein digitales Team zusammenarbeiten. Sie übernehmen gemeinsam Planung, Analyse und Ausführung
- Dafür werden Arbeitsstrukturen und der Kontextfluss zwischen Systemen neu gestaltet
- AskLio und HappyRobot setzen Agenten bereits nicht nur für einzelne Aufgaben, sondern für gesamte Prozesse ein
- Die Fortune 500 erleben den größten Wandel: enorme Datensilos und implizites Wissen, das bislang nur in den Köpfen von Menschen existierte
- Wird daraus eine gemeinsame Grundlage, sind schnellere Entscheidungen, verkürzte Zyklen und End-to-End-Prozesse ohne menschliche Eingriffe möglich
- Neue Rollen entstehen: AI-Workflow-Designer, Agenten-Aufseher und Verantwortliche für Governance
- Über dem System of Record kommt ein System of Coordination hinzu
- Menschen konzentrieren sich auf die komplexesten Edge Cases
- Multi-Agenten bedeuten nicht bloß Automatisierung, sondern eine Neugestaltung der gesamten Art, wie Unternehmen operieren
Consumer-AI bewegt sich von „Hilf mir“ zu „Sieh mich“ - Bryan Kim
- 2026 ist das Jahr, in dem Consumer-AI sich von Produktivität zu Verbundenheit bewegt
- AI ist nicht mehr nur ein Werkzeug, das bei der Arbeit hilft, sondern trägt dazu bei, sich selbst besser zu verstehen und Beziehungen zu stärken
- Das ist ein schwieriges Feld. Viele Social-AI-Produkte sind gescheitert
- Doch das Umfeld hat sich verändert: mehr multimodaler Kontext, sinkende Kosten für Inferenz
- AI lernt nun Emotionen auf Fotos, Gesprächsmuster und stressbedingte Veränderungen von Routinen
- Merkmale von „See me“-Produkten
- geringe kurzfristige Zahlungsbereitschaft
- hohe Bindungsrate
- Menschen tauschen ihre Daten bereits gegen Mehrwert
- und dieser Gegenwert wird bald groß genug sein
Neue Modell-Primitives ermöglichen Unternehmen, die zuvor unmöglich waren - Kimberly Tan
- Durch jüngste Modellinnovationen entstehen Unternehmen, die es zuvor nicht geben konnte
- Früher ging es nur darum, bestehende Produkte zu verbessern
- Jetzt wird die Kernfunktion eines Produkts überhaupt erst durch neue Modellfähigkeiten möglich
- Beispiele
- komplexe Entscheidungen bei finanziellen Forderungen
- Analyse riesiger Mengen wissenschaftlicher und Research-Materialien
- Extraktion von Videodaten aus der Fertigung
- Automatisierung von Arbeit, die sich hinter Desktops und schlechten APIs verborgen hatte
- Inferenz, Multimodalität und Computernutzung verändern die Struktur riesiger Branchen
AI-Startups, die AI-Startups als Kunden gewinnen, wachsen - James da Costa
- Derzeit erleben wir eine beispiellose Gründungswelle
- Auch etablierte Unternehmen führen AI schnell ein
- Startups gewinnen, indem sie Unternehmen in der Entstehungsphase als Kunden ansprechen
- Wer junge Unternehmen früh gewinnt, wächst mit ihnen, wenn sie größer werden
- Stripe, Deel, Mercury und Ramp nutzen diese Strategie
- Viele Kunden von Stripe wurden erst nach Stripe gegründet
- 2026 wird das Jahr, in dem Startups mit einer Greenfield-Strategie in mehreren Bereichen der Enterprise-Software ernsthaft skalieren
- Der Kern ist einfach:
- ein besseres Produkt bauen
- und sich besessen auf neue Kunden konzentrieren, die noch nicht gebunden sind
# [Crypto]
Privatsphäre wird zum wichtigsten Burggraben in Krypto
- Damit Onchain-Finanzwesen Mainstream werden kann, ist Privatsphäre unverzichtbar
- Die meisten Blockchains hatten bei Privatsphäre bisher jedoch faktisch eine Leerstelle oder behandelten sie als Nebensache
- Nun kann allein Privatsphäre eine Chain klar differenzieren
- Privatsphäre ist nicht nur ein Feature, sondern kann Chain Lock-in erzeugen
- besonders stark in einer Welt, in der ein reiner Performance-Wettbewerb nicht mehr ausreicht
- Der Wechsel zwischen öffentlichen Chains ist dank Bridging einfach
- doch mit Privatsphäre sieht die Lage anders aus
- Tokens lassen sich leicht bewegen, Geheimnisse jedoch nicht
- Risiken beim Wechsel in und aus privaten Bereichen
- Beobachter von Chain-, Mempool- und Netzwerk-Traffic können Identitäten erschließen
- beim Überschreiten von Grenzen (privat↔öffentlich, privat↔privat) kommt es zu Metadaten-Lecks
- etwa durch Transaktionszeitpunkte oder Größenkorrelationen als Hinweise für Nachverfolgung
- Gebühren tendieren durch Wettbewerb leicht gegen null
- Blockspace wird zunehmend homogenisiert
- deshalb kann eine „neue Chain ohne besondere Merkmale“ nur schwer starke Netzwerkeffekte erzeugen
- Umgekehrt haben Privacy-Chains mehr Potenzial, stärkere Netzwerkeffekte aufzubauen
- Eine General-Purpose-Chain, die
- noch kein florierendes Ökosystem hat
- keine Killer-App besitzt
- und keinen unfairen Verteilungsvorteil hat,
bietet kaum einen Grund zur Nutzung, zum Bau darauf oder zur Loyalität
- Bei öffentlichen Chains ist weniger entscheidend, „auf welcher Chain man ist“
- Transaktionen mit Nutzern anderer Chains sind ebenfalls leicht
- Bei privaten Chains ist viel wichtiger, „in welche Chain man hineingeht“
- weil beim Wechsel das Risiko der Offenlegung steigt und Abwanderung seltener wird
- Dadurch können Privacy-Chains eine Struktur schaffen, die nahe an Winner-takes-most liegt
- wenn die meisten realen Anwendungsfälle Privatsphäre brauchen
- könnten wenige Privacy-Chains den Großteil von Krypto auf sich vereinen
Prognosemärkte werden größer, breiter und intelligenter
- Prognosemärkte sind bereits in der Phase der Massenadoption angekommen
- Im kommenden Jahr wachsen durch die Kombination mit Krypto und AI gleichzeitig Größe, Reichweite und Intelligenz
- Es werden deutlich mehr Kontrakte gelistet
- nicht nur zu großen Wahlen oder geopolitischen Themen
- sondern auch zu immer komplexeren Ergebnissen und miteinander verflochtenen Ereignissen als Echtzeit-Wahrscheinlichkeiten
- Informationen aus Prognosemärkten dringen bereits tiefer in das Nachrichtenökosystem ein
- Gleichzeitig werden gesellschaftliche Fragen größer
- wie sich Wert und Risiko solcher Informationen ausbalancieren lassen
- wie sich das Design transparenter und auditierbarer machen lässt
- und wie Krypto das ermöglichen kann (unter der Annahme, dass dazu ein Folgebeitrag verlinkt wird)
- Wenn die Zahl der Kontrakte steigt, wird die Frage zum Engpass, „wie man sich auf Wahrheit einigt“
- zentralisierte Entscheidungen darüber, ob ein Ereignis wirklich eingetreten ist und wie das geprüft wird, werden wichtig
- doch Streitfälle zeigen die Grenzen
- Für Skalierung braucht es neue Mechanismen zur Behandlung von Streitfällen
- dezentrale Governance
- LLM-Oracles zur Unterstützung bei der Beurteilung der „Wahrheit“ umstrittener Ergebnisse
- AI erweitert den Spielraum nicht nur bei Oracles, sondern auch im Trading
- Agent-Trader können Signale aus der Welt einsammeln und sich so kurzfristige Vorteile verschaffen
- (Strömungen wie Prophet Arena geben darauf Hinweise)
- Prognosemärkte ersetzen Umfragen nicht
- stattdessen können sie Umfragen verbessern
- auch Umfragedaten können in Prognosemärkte einfließen
- Eine der zentralen Aufgaben ist der „Nachweis, ein Mensch zu sein“
RWA-Tokenisierung und Stablecoins wieder stärker Krypto-native denken
- Banken/Finttechs/Asset-Manager
- Doch die heutige Tokenisierung ist oft skeuomorph
- sie kopiert lediglich bestehende Konzepte realer Vermögenswerte
- und nutzt die nativen Funktionen von Krypto nicht ausreichend
- Als Alternative sind synthetische Assets, insbesondere Perpetual Futures (Perps), sehr stark
- tiefere Liquidität
- oft einfacher umzusetzen
- Hebelwirkung ist intuitiv
- unter den Krypto-nativen Derivaten haben sie womöglich den stärksten PMF
- Interessantes Experiment: das „Perpifizieren“ von Emerging-Market-Aktien
- bei einigen Titeln zeigen 0DTE-Optionen teils tiefere Liquidität als der Spotmarkt
- und könnten daher attraktive Kandidaten für Perpifizierungs-Experimente sein
- Letztlich lautet die Frage „Perpifizieren vs. Tokenisieren”
- in welcher Form auch immer: 2026 dürfte es mehr Krypto-native RWA-Ströme geben
- Auch bei Stablecoins wird statt „Tokenisierung“ Origination wichtiger
- 2025 sind Stablecoins im Mainstream angekommen, und das ausstehende Volumen wächst weiter
- Stablecoins ohne starke Kreditinfrastruktur wirken wie Narrow Banks
- also ein eng gefasstes Bankmodell, das nur sehr sichere liquide Assets hält
- das ist zwar ein valides Produkt, reicht aber nicht als langfristiges Rückgrat der Onchain-Ökonomie
- Deshalb bieten „Schulden-Assets“ größere Vorteile, wenn sie
- direkt onchain originiert werden statt offchain erzeugt und tokenisiert
- geringere Kosten für Lending-Services und Backoffice-Strukturen
- höhere Zugänglichkeit
- Die verbleibenden harten Probleme sind Compliance und Standardisierung
- doch Builder, die sie lösen wollen, sind bereits in Bewegung
Trading ist nicht das Ziel, sondern eine Zwischenstation
- Abgesehen von Stablecoins und etwas Kerninfrastruktur
- sind viele erfolgreiche Krypto-Unternehmen auf Trading umgeschwenkt oder gerade dabei
- Das Problem, wenn alle zu Trading-Plattformen werden
- die Akteure homogenisieren sich, wodurch Aufmerksamkeit und Chancen aufgezehrt werden
- am Ende bleiben leicht nur wenige große Gewinner übrig
- Teams, die zu früh pivotieren, verpassen womöglich die Chance, ein verteidigbares Geschäft aufzubauen
- Das Jagen nach einem unmittelbaren PMF-Gefühl hat seinen Preis
- besonders in Krypto, wo Token-/Spekulationsstrukturen sofortige Belohnungen fördern
- und damit eher zu kurzfristigen „Trades“ als zum Aufbau langfristiger „Produkte“ ziehen können
- Trading selbst ist eine wichtige Marktfunktion
- muss aber nicht das „Endziel“ sein
- Die größeren Gewinner könnten jene sein,
Von KYC zu KYA: nicht den Kunden kennen, sondern den Agenten
- In der Agentenökonomie verlagert sich der Engpass von Intelligenz zu Identität
- In Finanzdienstleistungen gibt es mittlerweile 96:1 mehr „nicht-menschliche Identitäten“ als menschliche Mitarbeiter
- diese Identitäten werden jedoch faktisch wie Geister außerhalb des Bankensystems behandelt
- Das entscheidende Primitive ist KYA (Know Your Agent)
- so wie Menschen einen Credit Score brauchen,
- brauchen auch Agenten zum Handeln kryptografisch signierte Credentials
- verknüpft mit dem Principal des Agenten
- mit definierten Einschränkungen und Haftung
- Ohne KYA ist die Realität simpel
- Shops und Services blockieren Agenten weiter an der Firewall
- Eine Branche, die über Jahrzehnte KYC-Infrastruktur aufgebaut hat,
- muss nun innerhalb weniger Monate KYA schaffen
Stablecoin-On- und Offramps werden intelligenter
- Das Stablecoin-Transaktionsvolumen wurde im vergangenen Jahr auf rund 46 Billionen US-Dollar geschätzt
- und markiert weiter neue Höchststände
- zum Vergleich: über 20x PayPal, fast 3x Visa und nähert sich schnell dem US-ACH-System
- Technisch ist das „Senden“ inzwischen schon einfach
- Das zentrale ungelöste Problem bleibt die Anbindung an reale Finanzschienen
- also die Onramps und Offramps für Stablecoins
- Eine neue Startup-Generation schließt diese Lücke
- Anbindung an vertraute Zahlungssysteme und lokale Währungen
- Tausch lokaler Guthaben ↔ digitaler Dollar unter Wahrung der Privatsphäre durch kryptografische Nachweise
- Integration von Interbank-Abwicklung über QR-basierte/Echtzeit-Zahlungsschienen
- globale Wallet-Schicht + Kartenausgabe, damit Stablecoins bei alltäglichen Händlern ausgegeben werden können
- Wenn On- und Offramps reifen, entstehen neue Verhaltensweisen
- Echtzeit-Auszahlung grenzüberschreitender Löhne
- Entgegennahme von „globalen Dollar“ auch ohne Konto
- Apps können mit Nutzern weltweit sofort abrechnen
- Stablecoins wandeln sich von einem Nischen-Finanztool
- zu einer grundlegenden Zahlungs- und Settlement-Layer des Internets
Stablecoins eröffnen einen Upgrade-Zyklus für Bank-Ledger und neue Zahlungsszenarien
- Bank-Core-Systeme sind aus moderner Entwicklersicht fast schon „archäologische Artefakte“
- 1960er–70er: frühe Einführung von Großsystemen
- 1980er–90er: Core Banking der zweiten Generation (Temenos GLOBUS, Infosys Finacle usw.)
- noch heute sind bei Kern-Ledgern Mainframes, COBOL und Batch-Datei-Schnittstellen üblich
- Ein Großteil der globalen Assets liegt auf diesen veralteten Core-Ledgern
- sie genießen das Vertrauen der Regulierer
- sind tief in komplexe Betriebsabläufe integriert
- bremsen Innovation zugleich massiv aus
- selbst das Hinzufügen von Funktionen wie RTP kann Monate bis Jahre dauern
- Stablecoins ermöglichen Innovation, ohne das Legacy-System sofort herausreißen zu müssen
- Stablecoins, tokenisierte Einlagen, tokenisierte Staatsanleihen und Onchain-Bonds
- werden zum Weg, auf dem Banken und Fintechs neue Produkte und Kunden erschließen
- Die vergangenen Jahre waren eine Phase, in der Stablecoins PMF erreichten und im Mainstream ankamen
- In diesem Jahr hat TradFi sie auf höherem Niveau angenommen
- Fazit: Stablecoins werden zu einem Innovationskanal, der Legacy-Ledger umgeht
Die nahe Zukunft des Messaging ist nicht nur quantenresistent, sondern dezentralisiert
- Vorsorge für Quantencomputing ist wichtig
- Doch das größere Problem ist das Vertrauen in Server
- bei großen Messengern wie Apple/Signal/WhatsApp
- muss man letztlich privaten Servern vertrauen, die von einer einzelnen Organisation betrieben werden
- dadurch bleibt die Schwachstelle, dass Regierungen Server blockieren, mit Backdoors versehen oder dazu zwingen können
- Wenn Server im Zentrum des Vertrauensmodells stehen, heißt es letztlich „trust me“
- ohne private Server heißt es dagegen: „man muss gar nicht erst vertrauen“
- Messaging muss zu offenen Protokollen gehen
- keine privaten Server
- keine einzelne App
- vollständig Open Source
- Kryptografie auf höchstem Niveau, auch gegen Quantenbedrohungen
- Wenn das Netzwerk offen ist,
- kann kein Staat und kein Unternehmen die Kommunikationsfähigkeit leicht wegnehmen
- selbst wenn eine App blockiert wird, können am nächsten Tag 500 neue auftauchen
- und selbst wenn Nodes abgeschaltet werden, sorgen ökonomische Anreize für neue Nodes
- Wenn Nachrichten und Identität wie Geld per Schlüssel besessen werden, verändert das alles
- die App kann sich ändern, aber die Kontrolle über Nachrichten und Identität bleibt beim Nutzer
- Im Kern geht es also über „quantenresistente Kryptografie“ hinaus um Eigentum und Dezentralisierung
Von „Code ist Gesetz“ zu „Spezifikation ist Gesetz“
- Jüngste DeFi-Hacks sind selbst bei
- starken Teams, gründlichen Audits und seit Jahren betriebenen Protokollen passiert
- Die aktuellen Sicherheitspraktiken sind weiterhin
- heuristikgetrieben
- eher Flickwerk von Vorfall zu Vorfall
- Damit DeFi-Sicherheit reifen kann, braucht es einen Kurswechsel
- Reaktion auf Bug-Muster → hin zu Eigenschaften auf Design-Ebene (property)
- best-effort → hin zu prinzipienbasiert (principled)
- Vor dem Deployment (statische Seite)
- Statt Teilverifikation müssen globale Invarianten (invariant) systematisch bewiesen werden
- KI-gestützte Beweis-Tools können
- Spezifikationen schreiben
- Invarianten vorschlagen
- die Kosten manueller Proof-Engineering-Arbeit senken
- Nach dem Deployment (dynamische Seite)
- Invarianten werden als Runtime-Guardrails genutzt
- sie werden als Runtime-Assertions (assertion) kodiert, die jede Transaktion erfüllen muss
- Statt zu erwarten, dass „alle Bugs gefunden wurden“
- werden Transaktionen, die zentrale Sicherheitseigenschaften verletzen, automatisch zurückgesetzt
- Realistisch betrachtet wären die meisten Exploits
- während der Ausführung wahrscheinlich an solchen Checks hängen geblieben
- Deshalb entwickelt sich „code is law“ zu „spec is law“ weiter
- auch neue Angriffe müssen dieselben Sicherheitseigenschaften erfüllen
- dadurch werden mögliche Angriffe klein oder sehr schwer
Krypto liefert neue Primitive, die sich auch außerhalb der Blockchain nutzen lassen
- SNARKs waren lange Zeit fast eine blockchain-spezifische Technologie
- kryptografische Beweise, die sich verifizieren lassen, ohne die Berechnung erneut auszuführen
- der Overhead war jedoch zu hoch (bis zu 1.000.000-fach)
- 2026 könnten zkVM-Prover
- auf ungefähr 10.000-fachen Overhead sinken
- auch der Memory-Footprint fällt auf einige hundert MB
- sie lassen sich auf dem Smartphone ausführen und werden günstig genug für den breiten Einsatz
- Warum 10.000 das „magische Zahl“ sein könnte
- High-End-GPUs haben gegenüber Laptop-CPUs grob eine 10.000-fache Parallelität
- bis Ende 2026 könnte eine einzelne GPU Beweise für CPU-Ausführung in Echtzeit erzeugen
- Die Vision aus einem älteren Paper, die dadurch möglich wird: verifizierbares Cloud Computing
- CPU-Workloads laufen häufig in der Cloud
- weil sie nicht schwer genug für GPU-Optimierung sind
- weil das Know-how fehlt
- oder aus Legacy-Gründen
- zu vernünftigen Kosten lassen sich Korrektheitsbeweise anhängen
- Prover sind bereits GPU-optimiert, sodass der Anwendungscode unverändert bleiben kann
KI für echte Forschungsarbeit einsetzen
- Noch zu Beginn dieses Jahres verstand Consumer-KI Forschungs-Workflows nicht besonders gut
- Einige Monate später kann man KI abstrakte Anweisungen geben, wie man sie einem Doktoranden geben würde
- und gelegentlich kommen neue und korrekt ausgeführte Antworten heraus
- Im größeren Trend nimmt der KI-Einsatz in der Forschung zu
- In welchen Bereichen die Wirkung am größten sein wird, ist noch offen
- Möglich ist aber, dass ein neuer polymathischer Forschungsstil im Vorteil ist
- der Beziehungen zwischen Ideen als Hypothesen formuliert
- die Fähigkeit betont, aus unvollständigen Antworten schnell zu extrapolieren
- und auch mit teils ungenauen Antworten die Richtung treffen kann
- Paradoxerweise gibt es dabei auch ein Element der Nutzung von „Halluzinationen“
- wenn Systeme intelligent genug werden und frei oszillieren
- entsteht zwar Unsinn, aber gelegentlich auch eine Öffnung für Entdeckungen
- Dafür nötige Workflows
- keine Einzelagenten, sondern eine Struktur aus Agenten, die Agenten umhüllen (mehrschichtiges Wrapping)
- andere Modelle bewerten und synthetisieren die Versuche und Ergebnisse früherer Modelle
- Beispiele aus der Praxis
- Paper schreiben: write papers
- Patentrecherche, künstlerisches Schaffen
- und leider auch das Auffinden von Smart-Contract-Angriffen
- Um Forschungs-Agenten-Ensembles zu betreiben, braucht es
Auf das offene Web wird eine unsichtbare Steuer gelegt
- KI-Agenten legen dem offenen Web eine unsichtbare Steuer auf
- Im Kern ist das Problem eine Fehlanpassung zwischen zwei Ebenen des Internets
- Kontext-Ebene: Daten werden auf werbefinanzierten Websites bereitgestellt
- Ausführungs-Ebene: Agenten ziehen diese Daten heraus und liefern den Nutzern Komfort
- dadurch werden Erlösquellen wie Werbung/Abos umgangen und die Grundlage geschwächt
- Wenn das offene Web kollabiert
- schrumpft auch die vielfältige und reichhaltige Content-Basis, von der KI lebt
- Benötigt wird eine großflächige Einführung technischer und ökonomischer Lösungen
- Sponsored Content der nächsten Generation
- Mikro-Attribution (Beitragsnachverfolgung)
- neue Finanzierungsmodelle
- Bestehende KI-Lizenzierungsdeals sind
- oft nur finanziell nicht nachhaltiges Flickwerk, das die von KI verursachten Traffic-Verluste nicht ausgleicht
- Der zentrale Wechsel ist
- von statischer Lizenzierung → hin zu Vergütung auf Basis der Echtzeitnutzung
- Mit Blockchain-basierten Nanopayments und ausgefeilten Attributionsstandards
- muss man Modelle testen und skalieren, bei denen Wert automatisch an alle Beteiligten fließt,
- die zu einer erfolgreichen Aufgabe eines Agenten beigetragen haben
Der Aufstieg von Staked Media
- Das traditionelle Medienmodell (einschließlich des Mythos der „Objektivität“) hatte bereits Risse
- Das Internet gab allen eine Stimme
- und Betreiber, Praktiker und Builder begannen, direkt zur Öffentlichkeit zu sprechen
- Die Perspektiven von Menschen spiegeln ihre Interessen und ihren Einsatz wider
- paradoxerweise vertraut das Publikum ihnen gerade deshalb oft mehr
- Neu ist nicht „Social Media“
- sondern das Aufkommen kryptografischer Tools, die öffentlich verifizierbare Commitments ermöglichen
- Wenn die Kosten für die Erstellung von Inhalten durch KI fast auf null sinken, reichen bloße Worte nicht mehr aus (einschließlich Bots/Deepfakes/falscher Personas)
- Deshalb verändert sich die Grundlage von Vertrauen
- tokenisierte Vermögenswerte
- programmierbare Lockups
- Prediction Markets
- Onchain-Historien
werden zu robusteren Vertrauenssignalen
- Der Kern von „Staked Media“
- besteht nicht darin, Interessen zu verbergen, sondern sie in nachweisbarer Form offenzulegen
- statt „Ich bin neutral“ heißt es dann „Das ist mein Einsatz, und so lässt er sich verifizieren“
- Es etabliert sich nicht als Ersatz für andere Medien, sondern als ergänzendes Signal
Secret-as-a-Service
- Alle Modelle/Agenten/Automatisierungen hängen letztlich von Daten ab
- Doch heutige Datenpipelines sind oft
- intransparent
- leicht veränderbar
- schwer zu auditieren
- Bei Consumer-Apps ist das manchmal akzeptabel, aber
- in Bereichen wie Finanzen/Gesundheitswesen ist der Schutz sensibler Daten unverzichtbar
- auch bei der Tokenisierung von RWAs ist das ein großes Hindernis
- Die Kernfrage ist die Kontrolle des Datenzugriffs
- Wer kontrolliert sensible Daten?
- Wie werden sie bewegt?
- Wer (oder was) greift unter welchen Bedingungen darauf zu?
- Derzeit muss man zur Wahrung von Vertraulichkeit
- auf zentralisierte Dienste setzen oder
- teure Custom-Setups selbst aufbauen
- deshalb kann TradFi die Vorteile des Onchain-Datenmanagements nicht nutzen
- Wenn Agenten beginnen, autonom zu suchen/handeln/entscheiden, braucht es keine „Best-Effort-Vertrauensbasis“, sondern kryptografische Garantien
- Deshalb braucht es secrets-as-a-service
- programmierbare native Zugriffsregeln
- clientseitige Verschlüsselung
- dezentrales Schlüsselmanagement
- Durchsetzung, wer was unter welchen Bedingungen/für welche Dauer entschlüsseln kann
- Onchain-Durchsetzung davon
- In Kombination mit verifizierbaren Datensystemen
- wird Privatsphäre nicht zu einer „auf die App aufgetragenen Schicht“, sondern
- kann Teil der Kerninfrastruktur des Internets werden
Vermögensverwaltung für alle
- Personalisierte Vermögensverwaltung war ursprünglich ein Service nur für HNWIs
- weil sie teuer war und eine hohe operative Komplexität hatte
- Wenn mehr Vermögenswerte tokenisiert werden,
- wird die Ausführung von Strategien/Rebalancing über Krypto-Rails sofort und kostengünstig möglich
- AI-Empfehlungen/Copilots verstärken die Personalisierung
- Das ist nicht einfach nur ein Robo-Advisor
- alle erhalten Zugang zu aktivem Portfoliomanagement statt nur zu „passiven“ Produkten
- 2025 begann TradFi, die Kryptoquote zu erhöhen
- 2026 wachsen nicht mehr Plattformen, die auf „Vermögenserhalt“, sondern auf Vermögensaufbau optimiert sind
- Fintechs wie Revolut und Robinhood
- CEXs wie Coinbase erweitern mit ihrem Vorteil im Tech-Stack den Markt
- Im DeFi-Bereich
- bieten Tools wie Morpho Vaults automatische Allokation auf Basis risikobereinigter Renditen
- das kann zum Kern-Renditebereich eines Portfolios werden
- Auch cashnahe Assets verändern sich
- Stablecoins statt Fiat halten
- tokenisierte MMFs statt traditioneller MMFs halten
- größerer Spielraum für Zusatzrenditen/Strategien
- Tokenisierung erweitert auch den Zugang zu privaten Assets
- Private Credit, Pre-IPO, Private Equity usw.
- mehr Umlauffähigkeit bei gleichzeitiger Wahrung von Compliance/Reporting
- Wenn die Bausteine eines Vermögensportfolios tokenisiert sind,
- wird automatisches Rebalancing ohne Überweisungen möglich
Das Internet wird zur Bank
- Wenn Agenten massenhaft auftreten und
- im Hintergrund automatisierter Handel statt Klicks zunimmt,
- muss sich die Art ändern, wie Geld (Wert) bewegt wird
- Wenn Systeme nicht über schrittweise Anweisungen, sondern über Intentionen gesteuert werden,
- muss sich auch Wert so schnell und frei wie Information bewegen können
- Blockchain/Smart Contracts/neue Protokolle bilden dafür die Grundlage
- Smart Contracts können bereits heute
- Dollar-Zahlungen weltweit in Sekunden abwickeln
- 2026 machen Primitives wie x402
- Zahlungen programmierbar und reaktiv
- Mögliche Szenarien
- Agenten begleichen Kosten für Daten/GPU/API-Aufrufe untereinander sofort
- ohne Rechnungen/Abstimmung/Batches, ohne Erlaubnis
- in Software-Updates sind Zahlungsregeln/Limits/Audit-Trails eingebaut
- ohne Fiat-Anbindung/Händler-Onboarding/Bankintegration
- Prediction Markets rechnen sich in Echtzeit selbst ab, passend zum Fortschritt des Ereignisses
- Auf diesem Niveau werden Zahlungsflüsse keine separate Betriebsschicht mehr sein, sondern Netzwerkverhalten
- Banken werden zur grundlegenden Verrohrung des Internets
- Vermögenswerte werden zu Infrastruktur
- Wenn Geld zu einem Paket wird, das das Internet routen kann,
- „unterstützt“ das Internet das Finanzsystem nicht mehr nur, sondern
- wird das Finanzsystem selbst
Wenn rechtliche Strukturen zu technischen Strukturen aufschließen, entfaltet sich das Potenzial der Blockchain
- Einer der größten Gründe, warum es in den vergangenen zehn Jahren in den USA schwer war, Netzwerke aufzubauen, war rechtliche Unsicherheit
- Das Wertpapierrecht hat ein auf „Unternehmen“ ausgerichtetes Raster gewaltsam über „Netzwerke“ gelegt
- und damit eine Situation selektiver Durchsetzung fortgeschrieben
- Das Ergebnis
- Risikominderung in Rechtsfragen wurde wichtiger als Produktstrategie
- Anwälte saßen weiter vorn als Ingenieure
- Von dieser Verzerrung verursachte Nebenwirkungen
- Doch Regulierung der Marktstruktur hat großes Potenzial, die Lage zu verändern
- die Regierung ist einer Verabschiedung näher als jemals zuvor
- Erwartete Veränderungen bei einer Verabschiedung
- Anreize für Transparenz
- klare Standards
- das Ende der „enforcement roulette“
- strukturierte Wege für Finanzierung/Token-Launch/Dezentralisierung
- So wie sich nach GENIUS die Verbreitung von Stablecoins explosionsartig beschleunigte, kann Regulierung der Marktstruktur für „Netzwerke“ einen noch viel größeren Wandel bringen
- Fazit
- Wenn rechtliche Strukturen mit technischen Strukturen zusammenpassen,
- können Blockchain-Netzwerke als echte Netzwerke funktionieren
- Offenheit, Autonomie, Kombinierbarkeit, glaubwürdige Neutralität und Dezentralisierung werden Realität
Noch keine Kommentare.