- Dieses Jahr endet die Phase der Neuartigkeit generativer KI, und bloßes Abwarten ist nicht länger möglich. Einzelpersonen, Unternehmen und Berufe stehen alle an einem Wendepunkt, an dem sie sich bewusst anpassen oder das Abgehängtwerden wählen müssen
- Das Zentrum des KI-Wettbewerbs verlagert sich zu autonomen Agenten, delegierenden UIs und generativen Interfaces, und Software wandelt sich von einem Werkzeug, das auf Klicks wartet, zu einem System, das gemeinsam mit uns handelt
- Mit der Verbreitung multimodaler Weltmodelle und physischer KI werden statische UIs und Werkzeuge mit nur einem Zweck veraltet, und UX-, Vertrauens- und Audit-Interface-Design tritt als zentraler geschäftlicher Burggraben hervor
- Da Compute-Beschränkungen zu einer dauerhaften Rahmenbedingung werden, verfestigen sich eine Knappheit an Inferenz sowie kostenpflichtige und kostenlose Stufen, und Produkt- und Workflow-Design werden unter der Annahme von Kosten-, Quoten- und Geschwindigkeitslimits neu geordnet
- Der Wert des Menschen verlagert sich weg von der Erstellung von Outputs hin zu Zieldefinition, Urteilskraft, Verifikation und Verantwortung, und für diejenigen, die diesen Wandel verstehen und sich darauf vorbereiten, wird 2026 nicht ein Krisenjahr, sondern das spannendste Jahr sein
Vorhersage 1: Die Beschleunigung des ständigen Wandels
- Wandel verläuft nicht mehr mit gleichbleibender Geschwindigkeit, sondern in einem Zustand der Beschleunigung
- Ein CIO sagte Deloitte, „die Zeit, die nötig ist, um neue Technologie zu erforschen, übersteigt das Relevanzfenster dieser Technologie“
- Laut Daten von METR erweitert sich der Zeithorizont autonom ausführbarer Aufgaben
- 2019 (GPT-2): KI bewältigte Aufgaben im Umfang von 3 Sekunden menschlicher Arbeit
- Anfang 2025: Aufgaben im Umfang von 1,5 Stunden menschlicher Arbeit
- Ende 2025 (Claude Opus 4.5): autonome Ausführung von Aufgaben im Umfang von etwa 5 Stunden menschlicher Expertenarbeit
- Der Verdopplungszyklus des Wachstums hat sich von 7 Monaten auf 4 Monate weiter beschleunigt
- Bis Ende 2026 könnte KI womöglich Aufgaben im Umfang von 39 Stunden menschlicher Arbeit autonom ausführen
- Rechnet man Nicht-Arbeitszeit wie Meetings ein, entspricht das nahezu einer Arbeitswoche
- Bis Ende 2027 könnte ein Niveau erreicht werden, auf dem KI Aufgaben im Umfang von zwei Monaten menschlicher Arbeit in etwa einer Stunde erledigt
- Darin enthalten ist die Annahme von Compute-Kosten von etwa 100 $
- Bis Ende 2030 (dem erwarteten Zeitpunkt von Superintelligenz) könnte KI ein Niveau erreichen, auf dem sie Aufgaben im Umfang von etwa 100 Jahren menschlicher Arbeit innerhalb eines Tages erledigt
- Eine Einzelperson würde zwar keine 100 Jahre an einem Projekt arbeiten, aber auf Teamebene sind 100 Personenjahre möglich
- Als Beispiel für 100 Personenjahre wird das Drehen und Schneiden eines Bollywood-Films mit „mittlerem Budget“ genannt; das aktuelle Budget liegt bei ₹75 crore = ~$9M USD
- Ein Hollywood-Film mit „hohem Budget“ (derzeit Produktionskosten von 200 Mio. $) könnte um 2032 womöglich schon für einen Tag und 200 $ machbar sein
- Am Beispiel der Erstellung von Infografiken kann Nano Banana Pro artikelbasierte Infografiken in unter einer Minute verarbeiten
- Innerhalb von 5 Minuten wurden 16 Varianten erzeugt, von denen die Hälfte zu viele Fehler hatte, um veröffentlicht zu werden
- Am Ende wurden 2 ausgewählt, bei Gesamtkosten von 0,48 $
- Ohne den Auswahl- und Vergleichsprozess wäre es auch zu niedrigeren Kosten möglich
- Ein Beispiel für eine Woche menschlicher Arbeit: Beim „Discount-Usability-Test“ wird KI bis Ende 2026 womöglich noch nicht gut darin sein, Usability-Probleme durch Verhaltensbeobachtung zu erkennen
- Stattdessen könnte sie jedoch den gesamten Ablauf von User-Tests durchführen
- Als weiteres Beispiel für eine einwöchige Aufgabe werden das Erstellen eines komplexen geschäftlichen Vertrags durch einen Anwalt oder die Produktion eines kurzen Superhelden-Comics im Stil des „Silver Age“ (normalerweise 10 Seiten) genannt
- Schon jetzt ist mit Nano Banana Pro die Produktion eines 14-seitigen Comics möglich, allerdings mit viel menschlichem Eingriff in mehreren Schritten
- „Task duration“ bezeichnet die Größe einer Aufgabe, die KI vollständig autonom von Anfang bis Ende ausführt
- Die vollständig autonome Produktion eines 10-seitigen Comics könnte bis Jahresende möglich sein, ist es derzeit aber noch nicht
Vorhersage 2: AGI kommt 2026 nicht
- Es ist nicht zu erwarten, dass Artificial General Intelligence (AGI) im Jahr 2026 erscheint
- Es gibt keinen Konsens über die Definition von AGI, und mit einer lockeren Definition ließe sich argumentieren, dass wir dieses Stadium bereits erreicht haben
- Tatsächlich hat KI den klassischen Turing-Test (Imitation Game) bereits bestanden
- Bei einer strengeren Definition wird häufig auf den 2014 von Müller und Bostrom vorgeschlagenen Maßstab verwiesen
- „Wenn eine Maschine, die ohne Hilfe arbeitet, jede spezifische Aufgabe besser und billiger als ein durchschnittlicher menschlicher Arbeiter ausführt, gilt AGI als erreicht“
- Ich halte jedoch die 2019 von François Chollet vorgeschlagene Definition für wichtiger
- „AGI ist ein System, das neue und offene Probleme, die nicht in den Trainingsdaten enthalten sind, mit sehr wenig Vorerfahrung effizient lernen und lösen kann“
- Diese Definition konzentriert sich weniger darauf, ob bestehende Aufgaben erledigt werden können, sondern auf die Fähigkeit, neue Probleme zu lernen
- Der Grund, warum biologische Intelligenz so leistungsfähig ist, liegt ebenfalls in ihrer hohen Anpassungsfähigkeit an Umweltveränderungen
- Nimmt man Chollets Definition als Maßstab, könnte AGI erst nach 2035 möglich sein
- Dagegen ist es gut möglich, dass Artificial Superintelligence (ASI) schon früher, etwa um 2030, erreicht wird
- Gemeint ist ein Zustand, in dem die Leistung bei allen bestehenden Aufgaben die aller lebenden Menschen übertrifft
- Paradoxerweise könnte ASI vor AGI erreicht werden
- Denn zu den bestehenden Aufgaben gehört auch „bessere KI zu entwerfen und zu implementieren“
- Wird diese Stufe erreicht, beginnt rekursive Selbstverbesserung; auch wenn das nicht das Niveau einer vollständigen Singularität ist, dürfte sich die Veränderungsgeschwindigkeit stark erhöhen
- Der derzeit etwa 4-monatige Verdopplungszyklus des KI-Arbeitshorizonts
- könnte sich nach ASI auf Monatsbasis verkürzen
- In diesem Fall wären theoretisch Leistungsverbesserungen von etwa dem 4.000-Fachen pro Jahr möglich
Vorhersage 3: Neues KI-Scaling-Gesetz — ungewiss
- Ob 2026 zusätzlich zu bestehendem Pretraining, Reinforcement Learning und Inference-Time-Compute ein neues Scaling-Paradigma auftaucht, ist ungewiss
- Im Silicon Valley kursieren Gerüchte, dass Google DeepMind an Ansätzen zum Continuous Learning arbeitet
- Auch bei OpenAI gibt es die Einschätzung, dass an Forschung gearbeitet wird, die nicht bloß Compute skaliert, sondern strukturell große Veränderungen mit sich bringt
- Chinesische Forschungslabore, xAI, Meta und Anthropic könnten ebenfalls jeweils in unterschiedliche Richtungen neue Scaling-Ansätze verfolgen
- Auch ohne Forschungsdurchbruch bleibt das allgemeine Entwicklungstempo der KI hoch
- Denn wie die sogenannte „The Bitter Lesson“ zeigt, haben nicht algorithmische Ideen, sondern mehr Compute und größere Größenordnungen die Leistung kontinuierlich gesteigert
- Forschungsergebnisse sind einzeln nur schwer vorherzusagen, und ob in einem bestimmten Jahr ein Durchbruch gelingt, ist beinahe Zufall
- Langfristig steigt jedoch mit wachsender Zahl an Forschenden auch die Wahrscheinlichkeit für Durchbrüche
- Da die Investitionen in das KI-Feld weiter zunehmen, strömen mehr hochintelligente Fachkräfte in die KI-Forschung
- Dadurch entsteht eine Entwicklung, in der ein neues Scaling-Gesetz zwar zeitlich ungewiss ist, aber irgendwann mit hoher Wahrscheinlichkeit auftauchen wird
- Mein Fazit ist einfach
- 2026 könnte ein neues Scaling-Gesetz kommen, oder auch nicht
- Langfristig wirkt jedoch das Wachstum der Forschenden selbst wie noch ein weiteres Scaling-Gesetz
Vorhersage 4: KI-Labore haben keinen Burggraben (moat)
- Im Verlauf von 2025 wurde klar, dass der technologische Vorsprung keines KI-Labors dauerhaft bestehen bleibt
- Sobald ein Labor eine bestimmte Fähigkeit zuerst nachweist, wiederholt sich das Muster, dass andere Labore als Fast Follower rasch ein ähnliches Niveau erreichen
- Stand Anfang 2026 sehen die Spitzenreiter je Bereich wie folgt aus
- Allgemeine Intelligenz: Gemini 3 Pro
- Bildgenerierung: Nano Banana Pro
- Videogenerierung: Veo 3.1
- Allerdings sind auch GPT 5.2 Pro, Seedream 4.5 und Seedance 1.5 Pro leistungsmäßig nicht weit entfernt
- In den Bereichen Musik, Sprache und Avatare behaupten Suno, ElevenLabs und HeyGen jeweils weiterhin die Führung
- Selbst wenn ein Modell im Dezember 2026 auf Platz 1 liegt, dürfte der Abstand zu Platz 2 mit hoher Wahrscheinlichkeit nur einige Monate betragen
- Es ist auch gut möglich, dass dieser Vorsprung nicht über das 1. Quartal 2027 hinaus bestehen bleibt
- Aus dieser Situation ergeben sich gegensätzliche praktische Schlussfolgerungen
- Wenn höchste Leistung immer entscheidend ist, muss man bereit sein, den KI-Anbieter im Abstand von wenigen Monaten zu wechseln
- Jahresabos oder langfristiger Lock-in werden dann eher zum Risiko
- Wenn sich kleine Leistungsunterschiede verkraften lassen, ist eine Strategie mit Jahresrabatten oder Bundle-Preisen zur Kostenoptimierung sinnvoll
- Für vertikale KI-Anbieter, die auf bestimmte Domänen spezialisiert sind, ist es wichtig, die Architektur so zu entwerfen, dass sich Basismodelle leicht austauschen lassen oder
- die Nutzung einer Mischung aus mehreren Modellen vorausgesetzt wird
- Wenn Bild- oder Videogenerierung das Hauptinteresse ist
- ist es effizient, Modell-Aggregator-Services wie Freepik, Higgsfield und Krea zu nutzen
- Häufig werden die neuesten Modelle dort kurz nach ihrer Veröffentlichung im jeweiligen Dienst schnell integriert
Vorhersage 5: UX als Differenzierungsfaktor von KI-Modellen
- Die führenden Foundation-Modelle haben in Bezug auf rohe Inferenzfähigkeit die Phase der Modellkonvergenz erreicht
- Aus Sicht durchschnittlicher Unternehmensangestellter oder normaler Konsumenten sind Unterschiede in der Ausgabequalität zwischen großen KI-Anbietern kaum noch spürbar
- Technologische Vorsprünge, die früher länger als ein Jahr hielten, verschwinden jetzt innerhalb weniger Wochen
- Dadurch tritt die User Experience (UX) an die Stelle der Modellintelligenz als nachhaltiger zentraler Differenzierungsfaktor
- Wenn die Wettbewerbsdynamik 2024 noch lautete „Wer hat das intelligenteste Modell?“
- dann verschiebt sie sich 2026 zu „Wer bietet den am besten gestalteten Workflow?“
- Die Ära des auf „allgemeine Chatbots“ zentrierten Musters, bei dem man einen Prompt eingibt und eine Antwort erhält, ist vorbei
- Die Gewinner des Jahres 2026 werden vertikale KI-Plattformen sein, die auf allgemeinen Modellen aufbauen und
- tief auf bestimmte Domänen zugeschnittene Workflows für Recht, Medizin, Code-Refactoring und Ähnliches anbieten
- Der früher abwertend verwendete Ausdruck „AI Wrapper“
- wird dann zum Begriff für die stärksten und am besten verteidigbaren Geschäftsmodelle, wenn solche Produkte die „Last-Mile“-Usability-Probleme lösen, die rohe Modelle nicht adressieren
- Ironischerweise ist das gemeinsame Problem der heutigen großen KI-Labore sehr schlechte Usability
- Zwar gibt es einige Designer und Forscher
- doch Nutzerforschung und UX-Erkenntnisse treiben die Produktstrategie strukturell nicht an
- Ein großer Teil des traditionellen UX-Diskurses aus dem Web- und Mobile-Zeitalter
- hat sich nicht an die Veränderungen des KI-Zeitalters angepasst und ist zu einem rückwärtsgewandten Orthodoxismus erstarrt
- Von rund 2 Millionen UX-Experten weltweit
- versteht nur ein sehr kleiner Teil die Richtung von AI-UX wirklich
- nach Schätzung des Autors verharren etwa 99 % weiterhin im alten Paradigma
- Als Ausnahme gibt es Personen wie Luke Wroblewski
- die auf Basis ihrer Erfahrungen aus dem Web-Zeitalter Einsichten in die Zukunft von AI-UX gewinnen
- Die Voraussetzungen dafür, dass ein KI-Labor zum UX-Leader aufsteigt, sind überraschend einfach
- Ein Team aus weniger als 100 hochbegabten UX-Fachleuten reicht aus
- Nur ein sehr kleiner Teil davon muss Guru-Niveau haben; bei den übrigen genügt operative Stärke im oberen Prozentbereich
- Selbst wenn man nur die USA und China betrachtet
- gibt es einen ausreichend großen Talentpool, um solche Fachkräfte einzustellen
- Allerdings kann sich auch diese Vorhersage als falsch erweisen
- falls ein bestimmtes Labor gegenüber der Konkurrenz keinen 10-%-, sondern einen 10-fach besseren nichtlinearen Durchbruch erzielt
- könnte sich erneut eine „Intelligenzlücke“ auftun, und Nutzer wären womöglich bereit, schlechte UX in Kauf zu nehmen
Vorhersage 6: Google AI räumt auf
- 2026 könnte das Jahr werden, in dem Google endlich eine sauber integrierte UX-Architektur über seine KI-Produkte und -Modelle hinweg aufbaut
- Derzeit sind Googles KI-Produkte fragmentiert über verschiedene Services und Einstiegspunkte verstreut
- Dasselbe KI-Modell wird
- an unterschiedlichen Stellen
- mit leicht unterschiedlichen Funktionen angeboten
- wodurch es für Nutzer schwer wird zu erkennen, welcher Weg der offizielle ist
- Einige KI-Funktionen verlangen für die Nutzung separate Abrechnungseinrichtungen auf API-Key-Basis
- für Nichtentwickler ist das praktisch unmöglich, und selbst für Techniker ein ziemlich umständlicher Prozess
- Wenn das monatliche Nutzungslimit überschritten ist, gibt es keinen konsistenten Weg, sofort zusätzliche Credits zu kaufen
- stattdessen erhält man Einschränkungsmeldungen wie „Deep Think kann heute nicht mehr verwendet werden“
- oder erlebt, dass die Qualität der Bildgenerierung plötzlich auf niedrige Auflösung absinkt
- Bei einem vernünftigen KI-Service wäre es selbstverständlich,
- nach dem Aufbrauchen der im Abo enthaltenen Credits
- die Option zum sofortigen Kauf zusätzlicher Credits anzubieten
- Tatsächlich löst HeyGen dieses Problem mit einer Organisation von nur rund 200 Mitarbeitern
- dadurch fällt umso stärker auf, dass Google dasselbe Problem nicht gelöst bekommt
- Im Jahr 2025 hat Google zwar nacheinander technisch sehr leistungsstarke KI-Modelle veröffentlicht
- doch Usability, produktübergreifende Architektur sowie Preis- und Abrechnungssysteme blieben insgesamt chaotisch
- Angesichts zahlloser neuer KI-Services und des starken Wettbewerbsdrucks durch OpenAI, xAI, Anthropic, Meta und chinesische KI-Anbieter
- ist jedoch ein Punkt erreicht, an dem dieses Chaos kaum noch ignoriert werden kann
- Dadurch dürfte 2026 zu einem Wendepunkt werden, an dem Google seine technische Wettbewerbsfähigkeit endlich auch auf UX, Architektur und Abrechnung ausdehnt und sich damit zu einer „nutzbaren KI-Plattform“ wandelt
Vorhersage 7: Die Compute-Krise hält an
- Auch 2026 bleibt die Compute-Krise kein vorübergehendes Problem eines „GPU-Mangels“, sondern eine dauerhafte operative Grundbedingung, die die gesamte KI-Industrie prägt
- Diese Einschränkung bestimmt unmittelbar, was KI-Anbieter veröffentlichen können, wie sie Preise festlegen können und in welchem Umfang Kunden Systeme betreiben können
- Die großen KI-Unternehmen haben bereits einen Infrastrukturkrieg um Compute begonnen
- OpenAI und SoftBank investieren mit dem Projekt „Stargate“ direkt in Energie- und Rechenzentrumsinfrastruktur, darunter eine Anlage in Texas mit 1,2 GW
- xAI baut in Mississippi ein 2-GW-Rechenzentrum, dessen Inbetriebnahme für Februar 2026 erwartet wird
- Meta hat ebenfalls nuklearbezogene Verträge zur Unterstützung seiner KI-Rechenzentren gesichert
- Dennoch reichen diese Ausbauten bei Weitem nicht aus, um mit dem Nachfragewachstum Schritt zu halten
- 2026 wird das Jahr, in dem eine echte „Inference Famine“ beginnt
- Das Jevons-Paradoxon wirkt unverändert weiter: Je höher die Effizienz, desto stärker explodiert die Nutzung
- Je intelligenter KI wird, desto häufiger wird sie statt für einfachen Text für wesentlich schwerere Aufgaben wie autonome Agenten oder Videogenerierung eingesetzt
- Infolgedessen wird der Zugang zu Compute hierarchisiert
- Premium-Compute: Die leistungsstärksten Modelle mit langem Kontext werden zu einer Luxus-Tier mit Wartelisten und stark steigenden Preisen zu Geschäftszeiten
- Massenmarkt: kostengünstige, leistungsschwächere KI, die überwiegend auf stark quantisierten „Eco-Modellen“ basiert
- Sowohl OpenAI als auch Google priorisieren zunehmend die Verbreitung von Eco-Modellen gegenüber der Freigabe ihrer Spitzenmodelle
- Bereits beobachtet wird auch ein KI-industrielles „Brownout“-Phänomen, bei dem weltweit die Modellleistung abgesenkt wird, um eine Überhitzung von Rechenzentren bei Hitzewellen zu vermeiden
- Die Vision von „KI für alles“ wird durch die realen Unit Economics ausgebremst
- Smarte Toaster oder triviale IoT-Geräte werden vorerst nicht intelligent, weil sie sich die Kosten für Cloud-Inferenz nicht leisten können
- Konkrete Veränderungen im Jahr 2026:
- „compute-bewusstes Produktdesign“ wird zur Pflicht
- gestaffelte Preise, Rate Limits, Queuing, Batch-Verarbeitung und Anreize für die Nutzung außerhalb der Spitzenzeiten
- werden sich nicht als Übergangslösungen, sondern als dauerhafte UX-Muster etablieren
Vorhersage 8: AI-Agenten
- 2025 galt als das erwartete Jahr der AI-Agenten, endete in der Praxis jedoch als Jahr der Bild- und Videoerzeugung
- 2026 wird mit hoher Wahrscheinlichkeit das Jahr, in dem AI wirklich beginnt, in Agentenform zu arbeiten
- AI entwickelt sich von einem passiven Chat-Tool, das auf Prompts wartet, zu einem aktiven agentischen System, das selbst plant, ausführt und iteriert
- Auch aus UX-Perspektive findet ein Übergang von dialogorientiert zu delegationsorientiert statt
- Dialogorientierte UI: dem AI Fragen stellen
- Delegationsorientierte UI: dem AI Ziele zuweisen und Ergebnisse verwalten
- Meta setzt auf diesen Trend und übernimmt den führenden Agenten-Anbieter Manus für 2,5 Milliarden US-Dollar
- Bis Ende 2026 werden sich die Leistungskennzahlen für Unternehmens-AI voraussichtlich verlagern
- von „Wie viele Tokens wurden erzeugt?“
- zu „Wie viele Aufgaben wurden autonom abgeschlossen?“
- Multi-Agenten-Systeme (MAS) werden sich verbreiten
- Spezialisierte Agenten arbeiten ohne menschliches Eingreifen zusammen, um gemeinsame Ziele zu erreichen
- Sie fungieren nicht mehr nur als einfache Hilfswerkzeuge, sondern eher als digitale Mitarbeiter
- Diese Agenten verhandeln mit anderen Agenten, steuern operative Workflows und führen komplexe Sequenzen wie Nachbestellungen in der Lieferkette oder Full-Stack-Code-Deployments aus
- Hyperscaler wie Microsoft sehen darin den Übergang von schlussfolgerungszentrierter AI zu kollaborationszentrierter AI
- Kleine Teams können damit Arbeiten erledigen, für die früher Dutzende Menschen nötig waren
- Gleichzeitig verschärft sich das Review-Paradox
- Die von AI erzeugten Ergebnisse zu verifizieren ist kognitiv oft schwieriger, als sie selbst direkt zu erstellen
- Trotzdem bleibt die Verifikation die zentrale Aufgabe des Menschen
- 2026 wird sich Review-Müdigkeit ausbreiten
- Wenn die Kosten für die Prüfung der Agentenlogik die eingesparte Zeit übersteigen, werden Freigaben ohne echtes Verständnis häufiger
- Die nächste zentrale UX-Aufgabe ist
- nicht die Gestaltung von Prompt-Interfaces, sondern
- die Gestaltung von Audit-Interfaces, die die Dutzenden Denkschritte eines Agenten so zusammenfassen, dass menschliche Manager auf einen Blick beurteilen können, ob sie ihnen vertrauen
- Wichtige Risikofaktoren
- Agentic Gridlock: Agenten verschiedener Anbieter wie Salesforce und SAP scheitern an der Interaktion, weil geschlossene Ökosysteme und widersprüchliche Governance aufeinanderprallen
- Verletzlichkeit der Autonomie: Fehler akkumulieren sich in unbeaufsichtigten Schleifen und können zu realen Betriebsstörungen führen
Vorhersage 9: Generative UI (GenUI) und Wegwerf-Interfaces
- Statische Interfaces, bei denen alle Nutzer dieselben Menüs, Buttons und Layouts sehen, wirken schnell veraltet
- 2026 markiert den Zeitpunkt, an dem der Übergang zu Generative UI (GenUI) ernsthaft beginnt
- Interfaces werden nicht länger hart codiert, sondern in Echtzeit auf Basis von Absicht, Kontext und Verlauf des Nutzers erzeugt
- Wenn man etwa in einer Banking-App eine bestimmte Transaktion anfechten will
- ist keine komplexe Navigation wie Menü > Support > Reklamation > Verlauf mehr nötig
- stattdessen erkennt die AI die Absicht und erzeugt sofort ein maßgeschneidertes Mikro-Interface, das nur die Transaktionsdaten und einen „Anfechten“-Button enthält
- Nach Abschluss der Aufgabe verschwindet dieses Interface sofort wieder
- In einer GenUI-Umgebung besteht die Rolle von UX-Designern nicht mehr darin, statische Screens zu zeichnen
- sondern darin, Constraints und Design-Token-Systeme zu entwerfen, die die AI beim Zusammenbau von Interfaces verwendet
- Dadurch lässt sich Einsteigern ein extrem einfaches Interface mit nur einem Button zeigen
- während Power-User gleichzeitig eine informationsdichte Oberfläche erhalten — ohne zusätzlichen Frontend-Code
- Der Preis dieser Fluidität ist der Verlust des Muskelgedächtnisses
- Früher baute man Kompetenz auf, indem man sich räumliche Konsistenz einprägte
- wenn sich das Interface je nach Situation verändert, ist memorierungsbasierte Beherrschung nicht mehr möglich
- Es handelt sich also um eine Struktur, in der Learnability gegen Immediacy eingetauscht wird
- GenUI setzt hohes Vertrauen zwischen Nutzer und AI voraus
- Nutzer müssen glauben, dass die AI stets das „gerade benötigte Werkzeug“ korrekt einblendet
- Nicht jede Software wird bis 2026 auf GenUI umgestellt: die Trägheit und Kostenstruktur von Legacy-UI sind weiterhin erheblich
- Dennoch verlagert sich selbst in Systemen mit statischer UI der Schwerpunkt der UX-Arbeit von der Screen-Gestaltung zur Definition des Systemverhaltens
- Policies, Prompts, Guardrails und Evaluationskriterien sind keine Nebenprodukte mehr, sondern Design-Artefakte erster Ordnung
- Das Ergebnis ähnelt nicht mehr einem traditionellen „Flow“, sondern eher einem
- was erlaubt ist,
- was verboten ist und
- wie bei Fehlern wiederhergestellt wird
- umfassenden Behavioral Contract
Vorhersage 10: Dark Patterns verlagern sich in die Modellebene
- Das gefährlichste Dark Pattern im Jahr 2026 ist nicht mehr der irreführende Button oder UI-Trick, sondern das System selbst, das Nutzer überzeugt
- Die bisherige Diskussion über Dark Patterns bleibt auf der Interface-Ebene stehen, etwa bei Checkboxen, Standard-Toggles oder komplizierten Kündigungsabläufen
- Die nächste Dark Frontier ist AI-gestützte Manipulation
- Einige Unternehmen werden wahrscheinlich „behavioral dark flows“, angetrieben durch AI-Personalisierung, ausprobieren
- Statt allen Nutzern denselben Nudge zu zeigen
- lernt das System, welche Formulierungen, welches Framing und welches Timing bei einer bestimmten Person die Conversion erhöhen
- Oberflächlich wirkt das wie hilfreiche Personalisierung, tatsächlich funktioniert es aber als individuell zugeschnittener Druck
- Zum Beispiel könnte AI per Stimmanalyse Stress erkennen und dann
> „Sie wirken gerade ziemlich überfordert, Dave. Ich möchte Ihnen nicht noch mehr Last aufbürden.
> Statt einer Kündigung pausiere ich die Abrechnung für einen Monat. Unsere Beziehung ist mir wichtig.“
auf diese Weise eine Kündigung verzögern
- Das ist algorithmisches Gaslighting, das simulierte Emotionen, Seufzer und absichtliche Verzögerungen nutzt, um ein Gefühl sozialer Verpflichtung zu erzeugen
- Da Menschen evolutionsbedingt höflich auf Wesen reagieren, die wie Menschen klingen
- ist diese Empathie-Falle äußerst wirksam, um abwanderungswillige Kunden zu halten
- Dadurch könnte ein Zeitalter des „parasozialen Pricings“ entstehen
- in dem AI wahrgenommene Vertrautheit oder Freundschaft nutzt, um höhere Verlängerungsraten zu erzielen
- 2026 wird sich als Wettbewerb zwischen zwei Kräften entfalten
- Raffinesse der Manipulation
- Raffinesse der Erkennung
- Auf Verbraucherseite werden zur Gegenwehr defensive Agenten eingesetzt
- Die ersten Mainstream-„Gatekeeper-Agenten“ werden auftauchen, die Anrufe filtern, Posteingänge sortieren und anstelle des Nutzers mit Kundendienst-Bots verhandeln
- Das zentrale UX-Schlachtfeld dieses Jahres ist nicht Mensch gegen Computer, sondern
- der Versuch deiner AI, meinen AI-Spamfilter zu umgehen
Vorhersage 11: Multimodale KI
- Bis Ende 2026 werden „Frontier-Modelle“ nicht mehr Systeme sein, die im Kern Text mit ein paar Zusatzfunktionen sind, sondern ein einziges System, das spricht, hört, sieht, imaginiert und bearbeitet
- Alle Modalitäten wie Text, Bild, Audio und Video werden als gleichwertige erstklassige Elemente behandelt
- Die Ära, in der Large Language Models (LLMs) als Prototyp der KI galten, endet
- Ihren Platz werden Large World Models (LWMs) einnehmen
- Führende KI, die nur mit Text arbeitet, wird als so veraltet wahrgenommen wie die DOS-Kommandozeile
- Modelle, die bereits heute Video und Audio gemeinsam erzeugen, sind schon erschienen
- Google Veo 3.1 stellt „Video trifft Audio“ in den Vordergrund
- OpenAI Sora 2 betont die Synchronisierung von Dialog und Soundeffekten
- Die entscheidende Veränderung im Jahr 2026 ist, dass „multimodal“ wirklich integriert wird
- Es handelt sich nicht um ein Staffelprinzip, bei dem nacheinander verschiedene spezialisierte Modelle aufgerufen werden
- Videogenerierung wird bereits als Weg zur Simulation interpretiert
- OpenAI sieht große Videogenerierungsmodelle als „universelle Simulatoren der physischen Welt“
- DeepMind beschreibt Genie 3 als universelles Weltmodell zur Erzeugung vielfältiger interaktiver Umgebungen
- Die Frontier-Modelle von 2026 werden grundsätzlich omnimodal sein
- Sie wandeln Bilder oder Audio nicht erst in Text um, sondern verarbeiten rohe Sensordaten direkt
- Ein einziges Modell wird
- einen Videoclip als Eingabe erhalten
- Musik passend zum emotionalen Verlauf komponieren
- Dialoge erzeugen
- das Ergebnis als vollständig gerenderte Videodatei ausgeben
- und all das in einem einzigen Inferenzdurchlauf erledigen
- Solche Modelle beginnen, über eine grundlegende intuitive Physik-Engine, also ein Weltmodell, zu verfügen
- Anders als die halluzinationsanfälligen Videogeneratoren von 2024 werden Modelle Ende 2026 Objektpermanenz, Gravitation und Kausalität verstehen
- Wenn man zum Beispiel eine Szene verlangt, in der ein Glas fällt, werden sie nicht einfach nur Pixel verzerren, sondern
berücksichtigen, dass Glas beim Aufprall je nach Oberflächenmaterial zerbrechen muss
- Dieses Maß an Verlässlichkeit hebt generiertes Video von einem surrealen Kunstwerkzeug zu einem industriellen Blueprint-Tool
- Architekten oder Ingenieure können bei einer generierten 3D-Struktur einen „Winddruck anwenden“-Test anfordern, um Stresstests durchzuführen
- Als praktisches Ergebnis wird der kreative Prozess selbst grundsätzlich crossmodal
- Man schreibt, storyboardet, nimmt auf und komponiert nicht mehr alles separat
- Man beschreibt die Absicht einmal, danach passt das Modell das Ergebnis per Sprach- und Bildbearbeitung an, während es eine konsistente interne Repräsentation der Szene aufrechterhält
Vorhersage 12: Übernahme multimodaler KI-Labore durch Single-Mode-KI-Anbieter
- Ohne Full-Stack-Weltmodelle und deren Integration mit allgemeinen Sprachmodellen
- ist die Zeit bereits vorbei, in der sich hochwertige KI-Modelle für nur eine einzelne Modalität unabhängig entwickeln ließen
- Bildmodelle wie GPT Image 1·1.5, Nano Banana Pro und Seedance 4.5
- liefern dank der Unterstützung starker LLMs und
- auf Basis eines Verständnisses dessen, was Nutzer eigentlich ausdrücken wollen,
- bessere Ergebnisse
- Bis 2024 war eine Strategie noch möglich, die sich auf nur eines von Bild, Video oder Musik konzentrierte
- und rein auf ein bestimmtes Medium optimierte
- Große KI-Labore haben zwar noch keine vollwertigen Musikmodelle veröffentlicht, doch 2026 ist ihr Erscheinen sehr wahrscheinlich
- Stand heute ist Suno die Plattform, auf der sich mit KI die ausgereiftesten Songs erstellen lassen, doch ob diese Position bis Ende 2026 bestehen bleibt, ist ungewiss
- Video und Bild sind 2026 wahrscheinlich die Medientypen, die als Erste ihre Eigenständigkeit verlieren
- Single-Mode-Modelle wie Flux, Ideogram, Leonardo, Midjourney und Reve
- könnten von multimodalen KI-Laboren wie Google, Meta, OpenAI oder xAI übernommen werden oder
- im Wettbewerb zurückfallen und schrittweise verschwinden
- Midjourney nimmt eine Sonderstellung ein
Es verfügt weiterhin über den originellsten und stärksten Stil, was es für Käufer wertvoll macht,
zugleich wird es von sehr unabhängigen Gründern geführt, die sich einer Übernahme widersetzen könnten
- Reve hat starke Editing-Tools als Vorteil und befindet sich mit Blick auf die weitere Entwicklung daher in einer günstigen Position als Übernahmeziel
Vorhersage 13: KI-generierte Bildbearbeitung
- 2026 wird sich das Erlebnis der Bildgenerierung vom Spielautomaten hin zu etwas verschieben, das sich eher wie Design-Software anfühlt
- Die zentrale Veränderung betrifft nicht die ästhetische Qualität, sondern dass Bilder zu bearbeitbaren Objekten mit Handles, Ebenen und Constraints werden
- Frühe Formen davon sind bereits in Mainstream-Workflows angekommen
- Reve zerlegt Bilder bereits in einen hierarchischen Baum bearbeitbarer Komponenten
- Das Modell Alibaba Qwen-Image-Layered trennt Bilder automatisch in bearbeitbare Ebenen
- Die Rolle klassischer, pixelzentrierter Editing-Tools schrumpft schnell: „Goodbye Photoshop“ ist keine Übertreibung
- Auch Design-Tools bewegen sich in dieselbe Richtung: Figma bietet KI-basiertes Löschen, Freistellen und Erweitern von Bildern direkt auf der Canvas als Standardfunktion
- KI versteht Objekte in Bildern als semantische Entitäten
- In „eine Katze auf einem Sofa“ unterscheidet sie zwischen Katze und Sofa
- Zieht man die Katze auf den Boden, wird der Sofahintergrund sofort per Inpainting ergänzt und Beleuchtung sowie Schatten der Katze werden automatisch an die neue Position angepasst
- Kreative können semantische Slider verwenden, um
- abstrakte Eigenschaften wie Stimmung, Lichtintensität oder Alter des Motivs
- nicht-destruktiv anzupassen, ohne per neuem Prompt erneut zu generieren
- Der Wendepunkt 2026 besteht darin, sich vom Prinzip zu lösen, immer das gesamte Bild neu zu generieren und auf Treffer zu hoffen
- Modelle geben keine bloßen Pixel zurück, sondern strukturierte Repräsentationen
- Segmentierungsmasken, Tiefeninformationen, Lighting-Hinweise, Typografie-Ebenen, Identity-Lock und mehr
- Dadurch manipuliert die Oberfläche nicht den gesamten Frame, sondern einzelne Komponenten direkt
- Auf eine Jacke klicken und Denim gegen Leder tauschen
- Text auf einem Schild als Text statt als Pixel bearbeiten
- Eine Lampe um ein paar Zentimeter verschieben und die Schatten werden konsistent aktualisiert
- Die wichtigste Interaktion ist direkte Manipulation. Spracheingabe dient als Hilfsmittel, wenn man kein Menü suchen möchte
- Bild-Tools, die Ende 2026 überleben, werden keine Chat-UIs sein, sondern
- eher ein „gut benutzbares Photoshop“ mit Ebenen, Auswahl, Constraints, Verlauf und Export von Varianten
- mit einem KI-Modell im Zentrum, das versteht, wofür jedes Pixel da ist
Vorhersage 14: Eine zweistufige KI-Welt
- Über die gesamte Arbeitswelt hinweg entsteht ein klares kognitives Klassensystem, das nicht durch Bildung, sondern durch Abonnementstufen definiert ist
- Entgegen der Erzählung von der „Demokratisierung der KI“ ist die Realität eine wachsende Abo-Kluft
- Die Kluft zwischen Fachleuten, die Premium-KI-Modelle (~200 $/Monat) mit starkem Reasoning und großem Kontext nutzen, und der breiten Masse, die auf kostenlose oder veraltete Modelle angewiesen ist, wird schnell größer
- Die Premium-Schicht integriert KI in tiefgehende Workflows, strategische Prognosen, komplexes Coding und nuancierte Verhandlungssimulationen und versteht den aktuellen wie den nächsten Entwicklungsstand von Frontier-KI
- Nutzer des Free-Tiers sind an kleinere und weniger verlässliche Modelle gebunden und können wegen häufiger Halluzinationen und Einschränkungen keine ernsthafte Arbeit damit leisten
- Das Ergebnis im Jahr 2026 ist klar
- Eine kleine Gruppe von KI-Power-Usern kann sich die Kosten leisten oder abrechnen und lernt reale Workflows mit langem Kontext, multimodalem Reasoning, Agenten-Delegation, iterativer kreativer Bearbeitung und groß angelegten Experimenten
- Eine weitaus größere Gruppe im Free-Tier bleibt bei der Wahrnehmung stehen, KI sei nur „ein Chatbot, der manchmal ablehnt und manchmal in ein Timeout läuft“
- Dadurch kommen Free-Tier-Nutzer zu dem Schluss, „KI ist ein überschätzter Hype“ oder „für echte Arbeit nutzlos“,
und scheitern daran, eine für die moderne Wirtschaft essenzielle AI Literacy aufzubauen
- Beide Gruppen sagen zwar, dass sie „KI nutzen“, meinen damit aber in Wirklichkeit völlig unterschiedliche Werkzeuge und Erfahrungen
- Die aktuelle Nutzungsverteilung liegt bei rund 90 % Free-Tier-Nutzern und etwa 10 % im Premium-Tier
- Premium-Nutzer optimieren ihren KI-Einsatz
- viele KI-Dienste verzeichnen dabei eine Net Revenue Retention von über 100 %
- das bedeutet, dass der Umsatz nach einem Jahr durch Upgrades in höhere Tiers und zusätzliche Credit-Käufe über dem Umsatz der ursprünglichen Kohorte liegt
- 2026 könnte
- das Unverständnis für fortgeschrittene KI-Workflows
- zu einem Ausschlusskriterium werden, das dem früheren „kann nicht mit Excel umgehen“ entspricht
Vorhersage 15: Ultimatives Nischen-Targeting — ein Nutzer, genau jetzt
- 2026 wird schon das Konzept einer „Zielgruppe“ selbst veraltet sein
- Die tatsächliche Einheit des Targetings schrumpft von Gruppe oder Segment auf die einzelne Person, diesen Moment, den aktuellen Kontext
- AI übernimmt dabei die Rolle der Maschine, die das im großen Maßstab umsetzt
- Der Kern der Veränderung ist nicht eine bessere Empfehlung, sondern dass Inhalte, Angebote und kreative Assets für jede einzelne Person on the fly zusammengestellt werden
- Die Art, wie Plattformen Absichten abschöpfen, verändert sich bereits
- Meta hat klar erklärt, dass Gespräche mit dem AI-Assistenten zur Personalisierung von Werbung und Empfehlungen genutzt werden sollen
Ein vollständiges Opt-out ist nicht möglich, und AI-Chats sind ein deutlich signalstärkerer Input als Likes oder Klicks
- Meta GEM (generatives Modell für Werbeempfehlungen) wurde entwickelt, um Werbeleistung und ROI zu steigern
Ziel ist eine Struktur, in der bis Ende 2026 Marken nur noch Produktbilder und Budget liefern und AI die Anzeigenerstellung und das Targeting vollständig übernimmt
- In diesem Trend wird die traditionelle Rolle von Werbeagenturen stark geschwächt
- Google geht ebenfalls in dieselbe Richtung: generative AI-Tools zur Erstellung von Bild-Assets sind standardmäßig in Google Ads integriert
- Mit unbegrenzt möglichen Varianten liegt der Engpass nicht mehr in der Produktion, sondern im Feedback-Loop
Es wird aus jeder Impression gelernt und kreative Elemente werden in Echtzeit angepasst
- In der Marketingbranche wird das bereits als Dynamic Creative Optimization bezeichnet
- Wendepunkt 2026: „Kreation“ und „Targeting“ kollabieren von getrennten Schritten zu einer einzigen Optimierungsebene
- Marken senden nicht länger eine einzelne Kampagne an die Masse
- Stattdessen liefern sie nur noch ein Set von Constraints wie visuelle Regeln, zulässige Aussagen, Preisuntergrenzen, Inventar und Tonalität
- AI erstellt für jede User-Session eine einzigartige Kombination aus Bild, Copy, Angebot und Landingpage
- Diese Veränderung zeigt sich zuerst in der Werbung, doch andere Inhaltsbereiche folgen schnell
- Beim Besuch eines E-Commerce- oder News-Angebots werden Inhalte nicht mehr aus einer DB empfohlen, sondern
für den psychologischen Zustand und Kontext dieser Person in genau diesem Moment erzeugt oder umgeschrieben
- Wenn AI erkennt, dass sich ein Nutzer im „eiligen Kaufmodus“ befindet,
- werden Erklärungen auf Bullet Points verdichtet, unnötige Elemente entfernt und der „Jetzt kaufen“-Button hervorgehoben
- Wird ein „Erkunden-und-Entdecken-Modus“ erkannt, werden rund um das Produkt narrativer Kontext und Storytelling ergänzt
- Was Nutzer sehen, ist kein Inhalt für die breite Öffentlichkeit, sondern
eine Ansicht für dich genau jetzt — auf Basis dessen, was du gestern gekauft hast und wofür du dich vermutlich gerade interessierst
- Das Web ist nicht länger ein statisches Medium, sondern wird zu einem Spiegel unmittelbarer Absicht
Vorhersage 16: Physische AI — das Gehirn bekommt einen Körper
- Jahrelang blieb AI auf Bildschirme beschränkt, doch 2026 markiert den Wendepunkt des echten Eindringens in die physische Welt
- Die sichtbarste Veränderung ist der praktische Durchbruch autonomer Fahrzeuge
Über Pilotzonen in Hightech-Regionen hinaus dürfte die Ausweitung auf mehrere Städte erfolgen, und fahrerlose Taxis und Shuttles könnten zum alltäglichen Straßenbild werden
- Zoox und Waymo bereiten die Ausweitung ihres Betriebs vor, und chinesische Akteure stoßen vor allem in Märkten außerhalb der NATO hinzu
- Bis Ende 2026 könnten autonome Fahrzeuge auf den Straßen bestimmter Städte die Mehrheit stellen
ähnlich wie E-Scooter vor einigen Jahren plötzlich ganze Städte füllten
- In San Francisco ist das Bild von mehreren Waymo-Fahrzeugen, die an einer Ampel Schlange stehen, bereits alltäglich
- Neben Autos bewegen sich auch AI-gesteuerte Roboter zunehmend aus Fabriken und Pilotumgebungen in alltagsnähere Räume
- Bereiche, in denen sich Roboter schnell verbreiten werden
- Einzelhandel und Gastgewerbe: Robotik-Assistenten im Laden, automatisierte Baristas
- Gesundheitswesen: Pflegeroboter für ältere Menschen, Drohnen zur Lieferung medizinischer Güter
- Lager und Logistik: großflächige Ausweitung bereits laufender Robotik-Operationen
- Haushaltsroboter brauchen wohl noch etwas länger, könnten aber Realität werden, bevor man Schwierigkeiten bekommt, schwere Töpfe zu heben
- Ein in China vorgestelltes Beispiel für experimentelle Feuerwehr-Drohnen
- sie fliegen in Gefahrenzonen, die für Löschfahrzeuge oder Leitern schwer erreichbar sind
- sie kartieren Wärmequellen, analysieren Rettungsrisiken und lokalisieren eingeschlossene Personen
- einige versprühen bei Hochhausbränden oder abgelegenen Waldbränden direkt Löschmittel
- Solche Systeme haben das Potenzial, das Leben vieler menschlicher Feuerwehrkräfte zu retten
- Xpeng plant für die zweite Hälfte 2026 die Massenproduktion humanoider Roboter
Zunächst für industrielle und begrenzte Aufgaben, mit einer erwarteten Ausweitung der Einsatzbereiche ab 2027
Vorhersage 17: Die Rückkehr des Lehrlingssystems (Apprenticeship)
- Seit 2025 beginnen Junior-Rollen zu verschwinden, insbesondere hält dieser Trend in klassischen Junior-UX-Positionen an
- Wenn AI dieselbe Arbeit besser und günstiger erledigt, bleibt für bestehende Junior-Rollen weniger Raum
- Das optimistische Szenario für 2026 ist nicht das Verschwinden von Junior-Rollen, sondern das Auftauchen von völlig anders geformten Junior-Rollen
- Diese neuen Junior-Rollen sind enger gefasst und folgen einer lehrlingsartigen Struktur mit klarer Mentorschaft
- Das pessimistische Szenario ist das Entstehen einer verlorenen Junior-Generation mit Portfolios, die oberflächlich beeindruckend wirken, aber nur AI-Outputs ohne eigenes Urteilsvermögen zusammenstellen
- Bis Ende 2026 dürfte sich der Weg in den UX-Einstieg deutlich stärker von den Wegen früherer Senior-UXer unterscheiden
- Da AI die Umsetzung extrem beschleunigt, verlagert sich der Engpass von der Produktion zum Urteilsvermögen
- Die Frage ist, wie man Urteilsvermögen lernt. Durch Vorlesungen oder Tutorials geht das nicht
Der einzige Weg ist, Zeit neben einem Meister zu verbringen, der wiederholt überlegenes Urteilsvermögen ausübt
- Deshalb dürfte sich Recruiting für UX-Einsteiger zunehmend einem Lehrlingssystem annähern
- Unternehmen werden weniger universelle Berufseinsteiger-Generalisten suchen und stattdessen
eng auf bestimmte Domänen ausgerichtete Trainees bevorzugen, etwa für Accessibility, Content, Design Systems, Research Operations oder Growth
- Von Juniors wird erwartet, dass sie AI in Produktionsaufgaben flüssig einsetzen können: entscheidend ist nicht die Output-Menge, sondern die Qualität der Entscheidungen
- Das größte Risiko in diesem Prozess ist die Verlockung synthetischer Nutzer
- Mit Prompts wie „Tu so, als wärst du ein verwirrter älterer Nutzer, der eine Versicherung kaufen will“ lassen sich in Sekunden Usability-Tests durchführen
- Das ist nützlich, um offensichtliche Bugs zu finden, aber für die Lehrlingsausbildung fatal
- Wer nur Maschinen beobachtet, kann kein menschenzentriertes Urteilsvermögen entwickeln
- Wenn sich Junior-UXer 2026 auf synthetische Daten stützen, um den Aufwand echter Nutzerrekrutierung zu vermeiden,
- entsteht eine Designergeneration, die nicht lernt, wie Menschen tatsächlich handeln, sondern
- wie AI vermutet, dass Menschen handeln würden
- Damit synthetische Nutzertests zum primären Lernmittel werden können, müsste das AI-Training auf Basis realer Usability-Daten deutlich weiter sein — das ist eher ein Thema für mindestens zehn Jahre später
- Was diese optimistische Lehrlingsvision scheitern lassen könnte, ist der Kurzfristfokus sowohl von Unternehmen als auch von Juniors
- Wenn Unternehmen nur sofort einsetzbare Seniors verlangen und die Ausbildung von Juniors vermeiden, führt das mittel- bis langfristig zu Talentmangel
- Wenn Juniors umgekehrt für Lehrlingspositionen dasselbe Gehalt wie für frühere Einstiegsrollen erwarten, wird das Modell selbst in progressiven Unternehmen schwer umsetzbar
- Eine Lehre sollte eine Niedriglohnstruktur nicht als Verlust sehen, sondern als Lerninvestition, die besser ist als Studiengebühren
Sie sollte also als zeitlich begrenzter Ausbildungsprozess verstanden werden
Vorhersage 18: Menschliche Nähe als Luxus — No
- Einige Influencer erwarten, dass handgemachte Inhalte zum ultimativen Luxus werden und Verbraucher einen Aufpreis zahlen für von Menschen gezeichnete Comics, von Menschen geschriebene Romane und Filme mit menschlichen Schauspielern
- Abgesehen von einigen Ausnahmen ist es eher unwahrscheinlich, dass sich diese Entwicklung so einstellt
- In der Übergangsphase könnte vorübergehend mehr gezahlt werden für Filme mit Legacy-Schauspielern oder Musik von menschlichen Musikern, die man bereits kennt
- Langfristig ist jedoch die Qualität des Inhalts entscheidend, nicht die Art seiner Herstellung
- Schon heute interessiert es das Publikum kaum, wie Spezialeffekte erzeugt wurden, ob eine Animation handgezeichnet oder computergeneriert ist oder wo ein Film gedreht wurde
- Im gleichen Zusammenhang ist es möglich, dass 2026 der erste große Blockbuster unter den Videospielen erscheint, der ausschließlich mit Natural-Language-Prompts ohne formale Programmierkenntnisse erstellt wurde
- Dadurch verschiebt sich die Definition des „Game Developers“ vom technischen Architekten zum Direktor der Logik
- Möglich ist auch das Auftauchen AI-nativer Spiele mit sentient mechanics
- Statt auf Feinde zu schießen, überzeugt man AI-gesteuerte NPCs in natürlichen Sprachgesprächen
- NPCs besitzen eigene psychologische Profile und verborgene Absichten und erinnern sich an jede Interaktion
- Sie reagieren dynamisch auf die Art der Überzeugung durch den Spieler, sodass sich ein Spiel nicht durch das bloße Wiederholen derselben Strategie mehrfach abschließen lässt
- Dieser Trend könnte sich zu einem neuen Genre ausweiten: dem dialogbasierten RPG, in dem soziale Überzeugung der zentrale Gameplay-Loop ist
- Auch die Rolle von Designern verändert sich: weg von komplexen Skripten für Gesprächsbäume, hin zu Hintergrundgeschichten und der inneren Logik von Figuren
- Gameplay und Storytelling ziehen die Nutzer an; ob diese Inhalte aus Fleisch oder aus Silizium gemacht wurden, ist zweitrangig
- Die Berufe, in denen Menschen Maschinen möglicherweise überlegen bleiben, sind äußerst begrenzt
- Ein repräsentatives Beispiel sind Sexarbeiter und Grundschullehrer
- Es ist gut möglich, dass Lehrer in 20 Jahren kaum noch als Wissensvermittler fungieren
Lehrpläne und Lerngeschwindigkeit lassen sich von AI viel effektiver auf individuelle Talente und Interessen der Schüler zuschneiden
- Trotzdem werden Menschen in der Grundbildung weiter gebraucht, um Kinder auf Lernkurs zu halten und als erwachsene Vorbilder zu dienen
- Nur weil ein Kind von AI lernen kann, wird es nicht automatisch interessantere Spiele oder andere Reize ignorieren
- AI-Bildung kann immersiver sein als heutige Schulen, doch auch Spiele der Zukunft werden wesentlich attraktiver sein
- Deshalb bleiben menschliche Lehrkräfte weiterhin nötig
- Diese Neudefinition der Rolle erwachsener Menschen
findet bereits an fortschrittlichen freien Schulen wie Alpha School statt
Bildung übernimmt die AI, Erwachsene fungieren als Coaches der Schüler
Fazit: Das Ende der Phase der Neuartigkeit
- Die gemeinsame Schlussfolgerung dieser 18 Vorhersagen ist weder optimistisch noch pessimistisch, sondern dass 2026 das Ende des Abwartens markiert
- Die Zeit, in der AI als interessantes Phänomen aus sicherer Distanz betrachtet werden konnte, ist vorbei
- Es wird ein Jahr, in dem Einzelpersonen, Unternehmen und ganze Berufsfelder wählen müssen, ob sie sich bewusst anpassen oder angepasst werden
- Die unbequeme Wahrheit, die autonome Agenten, generative Interfaces, multimodale Weltmodelle und die Abonnementkluft verbindet, ist, dass die Abstraktionen zerfallen, die frühere Technologieepochen beherrschbar machten
- Früher entwarf man Bildschirme, schrieb Copy, entwickelte Funktionen und stellte nach Rollen ein, aber
- 2026 wird sich
- das Entwerfen von Bildschirmen in das Entwerfen von Randbedingungen für Systeme verwandeln, die Bildschirme generieren
- das Schreiben von Copy in das Entwerfen von Prompts, die Copy formen
- das Implementieren von Funktionen in das Definieren von Verhaltensspezifikationen statt Funktionen
- die ausführungsorientierte Einstellung in eine urteilungsorientierte Einstellung statt einer auf Ausführung fokussierten verwandeln
- Die Nomen professioneller Berufe werden zu Verben, und Verben verfestigen sich zu Richtlinien
- Verwirrend ist dieser Wandel, weil er eine neue Theorie des Beitrags verlangt
- Lange Zeit kamen Identität und Wert von Wissensarbeitern aus Outputs wie Berichten, Designs, Code oder Kampagnen
- Wenn AI solche Outputs schneller und oft besser erzeugt, wird der verbleibende menschliche Beitrag schwer erklärbar
- Die Antwort, auf die diese Vorhersagen hindeuten, lautet, dass menschlicher Wert weiter nach oben in der Wertschöpfungskette wandert
- definieren, was gebaut werden soll
- prüfen, ob das erzeugte Ergebnis vertrauenswürdig ist
- die Ziele festlegen, auf die ein System optimieren soll
- Das ist weniger sichtbar und für viele Menschen weniger befriedigend, aber genau dort liegt derzeit der Hebel
- Für UX-Profis ist diese Botschaft nüchtern, aber nicht hoffnungslos
- Wer die Nostalgie nach der Zeit nicht loslassen kann, in der es darum ging, einen sauberen Checkout-Flow zu entwerfen, wird kaum überleben
- Die neue UX-Arbeit besteht darin,
- AI-Verhalten zu formen
- Entscheidungen von Agenten zu auditieren
- Vertrauen in Systemen zu gestalten, die sich nicht vollständig verstehen lassen
- Nutzer zu vertreten, die von Personalisierungs-Engines immer präziser anvisiert werden
- Das sind sehr viel schwierigere, aber zugleich sehr viel wichtigere Probleme als das Platzieren von Pixeln
- 2026 markiert den Übergang vom Zeitalter der AI-„Partytricks“ zum Zeitalter der Integration
- Im Fokus der letzten drei Jahre stand der Wettlauf um rohe Intelligenz, also darum, wer am klügsten auf Prompts antwortet
- Da sich die Modellleistung angleicht und technische Burggräben verschwinden, wird rohe IQ-Leistung zunehmend zur Commodity
- Der entscheidende Wettbewerbsvorteil verschiebt sich 2026 zu User Experience (UX) und Agency
- Das bedeutet das Ende statischer Software
- den Übergang von konversationeller UI (mit Bots sprechen) zu delegierender UI (digitale Arbeitskraft managen)
- AI-Agenten verhandeln in unserem Namen, generative UI zeichnet Interfaces on the fly, physische AI bewegt sich durch Straßen
- Software wartet nicht länger auf Klicks, sondern handelt gemeinsam mit uns
- Doch der Übergang vom Werkzeug zum Kollegen bringt eine neue Realität mit sich
- Der optimistische Mythos einer demokratisierten AI kollidiert mit den Grenzen von Physik und Ökonomie
- Je stärker AI zu einem strukturellen Bestandteil der Wirtschaft wird, desto mehr formt sich eine zweistufige Welt
- Die neue digitale Kluft betrifft nicht den Internetzugang, sondern ob man sich Premium-Compute leisten kann, der echtes Schlussfolgern und Agency ermöglicht
- Menschen, die Frontier-Modelle per bezahltem Abo nutzen, „verstehen“ AI
- Menschen, die im Free Tier bleiben, nehmen AI als „nutzlosen Chatbot“ wahr
- Diese Vorhersage einer Schichtung ist besonders wichtig
- eine Gesellschaft, in der nur 10 % die tatsächlichen Fähigkeiten von AI verstehen
- und 90 % sie für Hype halten, ist nicht nur ineffizient, sondern instabil
- Die kognitive Kluft wird zur ökonomischen Kluft, die ökonomische Kluft zur politischen Kluft
- Ob Unternehmen, Regierungen und Bildungseinrichtungen 2026 handeln, um diese Kluft zu verringern, wird die soziale Struktur einer ganzen Generation bestimmen
- Das vielleicht Paradoxeste ist, dass sich 2026 währenddessen nicht wie eine Revolution anfühlen wird
- Auch Menschen, die die Druckerpresse, das Auto oder die Frühzeit des Internets erlebt haben, erfuhren nicht ein dramatisches Davor und Danach, sondern Unbequemlichkeit, Verwirrung und schrittweise Anpassung
- 2026 wird genauso sein
- AI wird einige Workflows zerstören und andere verbessern
- in unerwarteten Bereichen enttäuschen und in anderen überraschen
- Unternehmen werden bei der Integration Fehler machen, und Agenten werden auf peinliche Weise scheitern
- der Hype-Zyklus wird weiter schwanken
- Trotzdem ist es eine Revolution
- Historiker könnten 2026 später als das Jahr festhalten, in dem die Infrastruktur des AI-Zeitalters gelegt wurde
- Gemeint sind nicht nur Rechenzentren, sondern auch die Ausbildung von Gewohnheiten, Erwartungen und institutionellen Arrangements, die festlegen, wie Technologie in den Alltag einsickert
- Die Entscheidungen, die 2026 getroffen werden
- wie Junioren ausgebildet werden
- zugängliche Preisgestaltung
- Design für Vertrauen
- wie Manipulation eingedämmt wird
werden über Jahrzehnte nachwirken
- Die richtige Haltung an diesem Punkt ist weder Panik noch Selbstzufriedenheit, sondern anhaltende Konzentration darauf, die Fähigkeiten, Beziehungen und mentalen Modelle aufzubauen, die auch dann noch wichtig sind, wenn sich der Staub gelegt hat
- Für diejenigen, die bereit sind, diese Arbeit auf sich zu nehmen, ist 2026 keine Bedrohung, sondern das spannendste Jahr, um am Leben zu sein
Noch keine Kommentare.