10 Punkte von GN⁺ 2026-01-01 | Noch keine Kommentare. | Auf WhatsApp teilen
  1. Mit einer agentennativen Architektur werden KI-Agenten Apps auf dem gleichen Niveau wie Nutzer bedienen können und sogar Änderungen auf Entwicklerniveau vornehmen.
  2. Designer werden beginnen, ihre eigenen Tools selbst zu erstellen, auch ohne zu programmieren; zugleich bleibt die Einstiegshürde bei Code-Editoren eine Herausforderung.
  3. Mit dem agentischen Engineer entsteht ein neuer Entwicklertyp, dessen Rolle sich vom direkten Programmieren hin zum Anleiten und Koordinieren von KI-Agenten verlagert.
  4. Das Training von KI wird sich in Richtung Autonomie (independence) entwickeln, und es wird notwendig sein, Agenten die Freiheit zu geben, selbstständig zu erkunden und Fehler zu machen.

Prognose 1: Software, die Agenten als Bürger erster Klasse behandelt

  • 2025 war das Jahr, in dem Coding-Agenten ein verlässliches Niveau erreicht haben; noch ein Jahr zuvor scheiterten selbst erfahrene Entwickler an einer Mauer aus Fehlern und Bugs, doch mit Modellen wie Anthropic Opus 4.5 wurde diese Grenze überwunden.
  • Die agentennative Architektur, die sowohl die Art des App-Baus als auch die Erbauer verändert, wird in drei Stufen erklärt.
    • Level 1: Alles, was ein Nutzer tun kann, kann auch ein Agent tun; KI greift auf alle Buttons, Einstellungen und Funktionen innerhalb einer App zu und bedient die Software auf dieselbe Weise wie ein Nutzer.
      • OpenAIs Atlas führt Aufgaben wie das Hinzufügen von Personen zu einem Notion-Workspace direkt selbst aus.
    • Level 2: Alles, was der App-Code tun kann, kann auch ein Agent tun; der Agent greift auf Backend-Funktionen zu und nutzt sie, die dem Nutzer nicht offengelegt sind.
      • Cora, der E-Mail-Assistent von Every, erstellt zweimal täglich ein „Briefing“, das den Posteingang zusammenfasst.
    • Level 3: Alles, was ein Entwickler tun kann, kann auch ein Agent tun; er setzt Bugfixes, Feature-Erweiterungen und Änderungen an der Funktionsweise von Software direkt nach Nutzeranfrage um.
      • Unternehmen wie Anthropic und Notion denken darüber nach, Software zu bauen, die Menschen und Agenten gleichermaßen als Bürger erster Klasse behandelt.

Prognose 2: Designer erstellen ihre eigenen Tools selbst

  • Designer und Kreative waren durch fehlende Programmierkenntnisse bisher darin eingeschränkt, vollständige Erlebnisse zu bauen, doch nun beginnt sich das zu ändern.
  • Auch der Creative Lead von Every hat sich vom klassischen Designer zu jemandem entwickelt, der kleine Apps per Vibe Coding baut, um die eigene Arbeit zu unterstützen.
  • Zugleich besteht weiterhin eine Angst vor dem Coding-Terminal, und damit sich KI-Code-Editoren wie Cursor auch auf Designer ausweiten können, müssen sie Code stärker abstrahieren und die Einstiegshürde senken.

Prognose 3: Ein neuer Typ Software Engineer, der KI-Agenten dirigiert

  • Mit der Weiterentwicklung der KI-Fähigkeiten entstehen zwei Typen von Software-Erbauern.
    • Engineers, die KI nutzen, um bestehende Prozesse zu beschleunigen, dabei aber weiterhin selbst Code lesen und schreiben
    • Vibe Coder, die Ergebnisse erzeugen, auch ohne die internen Funktionsprinzipien zu verstehen
  • Als dritte Kategorie entsteht der agentische Engineer.
    • Softwareentwicklung wird neu definiert, mit dem Schwerpunkt auf dem Dirigieren von KI-Agenten statt auf dem Schreiben von Code.
    • Der Großteil der Programmierarbeit wird delegiert; der Fokus liegt auf übergeordneten Aufgaben wie dem Definieren dessen, was gebaut werden soll, dem Zerlegen von Problemen und dem Koordinieren von Agenten.
    • Im Tausch gegen einen teilweisen Verzicht auf das klassische Coding-Gefühl entscheidet man sich bewusst für eine neue Fähigkeit: Kompetenz im Management von Agenten.

Prognose 4: Die nächste Welle des KI-Trainings zielt auf Autonomie (Independence)

  • Die Entwicklung von KI-Agenten ähnelt der Entwicklung von Kindern: zunächst kann man ein Baby nur fünf Minuten allein lassen, später kann es immer länger allein spielen.
  • Vor einigen Jahren konnten LLMs nur einen einzigen Turn auf einmal verarbeiten; heute können sie 20 Minuten bis fast eine Stunde ohne Eingriff arbeiten, auch wenn bis zu unbegrenzter Laufzeit noch ein weiter Weg ist.
  • Voraussetzungen für echte Autonomie
    • Kontinuierliches Lernen
    • Klares Erkennen von Zielen
    • Die Fähigkeit, Ziele im Zeitverlauf sinnvoll anzupassen
  • Das aktuelle Alignment-Training ist darauf ausgelegt, Agenten vorhersehbar und gehorsam zu machen, und stellt damit ein Hindernis für das Erreichen von Autonomie dar.
  • Für echte Autonomie brauchen Agenten die Freiheit, zu erkunden und Fehler zu machen, doch aus Sicherheitsgründen wollte man das bislang nur ungern zulassen.
    • Es braucht Lernmethoden, die Experimente und Scheitern erlauben.
  • 2026 werden neue Trainingsansätze und Architekturen entstehen, die diese Einschränkungen lockern und Agenten unabhängiger handeln lassen.

Als Video ansehen – Four Predictions For How AI Will Change Software in 2026

Noch keine Kommentare.

Noch keine Kommentare.