43 Punkte von GN⁺ 2026-02-02 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Die Produktivitätslücke zwischen AI-Nutzern wächst rapide: „Power User“ nutzen fortgeschrittene AI-Tools wie Claude Code und MCPs aktiv, während die Mehrheit weiterhin bei einer konversationsbasierten Nutzung auf ChatGPT-Niveau bleibt
  • Große Unternehmen haben es wegen Sicherheitsrichtlinien, abgeschotteten IT-Umgebungen und Legacy-Systemen schwer, moderne AI-Tools einzuführen, während kleinere Unternehmen AI schnell internalisieren und so ihre Effizienz steigern
  • Diese Kluft führt zu einer Ära, in der kleine Teams deutlich produktiver sein können als Großunternehmen, und der Aufbau interner APIs und sicherer Umgebungen für die Code-Ausführung wird zum Kern künftiger Wettbewerbsfähigkeit
  • Werden Agenten mit einer bash-Sandbox kombiniert, die Zugriff auf Programmiersprachen und APIs hat, können selbst nichttechnische Nutzer nahezu alle Produktivitäts-Apps ersetzen – das ist die Zukunft der Wissensarbeit

Zwei Arten von AI-Nutzern

  • Die Produktivitätslücke zwischen AI-Nutzern vergrößert sich rasant
    • Die eine Seite nutzt Claude Code, MCPs und skillbasierte Workflows, und selbst Nichttechniker verwenden AI aktiv im Terminal
    • Besonders im Finanzbereich gibt es viele Fälle, in denen mit Python-basierter Automatisierung die Grenzen von Excel überwunden werden
  • Die andere Seite bleibt weiterhin bei einer einfachen Frage-und-Antwort-Nutzung auf ChatGPT-Niveau
    • Viele Beschäftigte gehören noch immer in diese Kategorie und schöpfen das Potenzial von AI nicht annähernd aus

Die Grenzen von Microsoft Copilot

  • M365 Copilot wird gebündelt mit Office-365-Abonnements angeboten und hat deshalb im Unternehmensmarkt einen hohen Marktanteil, bietet aber eine Art abgespeckte ChatGPT-Oberfläche
    • Die „Agent“-Funktion ist im Vergleich zu CLI-Coding-Agenten, einschließlich Microsofts eigenem GitHub Copilot CLI, geradezu lächerlich
      Sie scheitert häufig bei großen Dateien, und die Grenzen bei Speicher und CPU sind übertrieben restriktiv
  • Selbst intern bei Microsoft wird Claude Code in Teams eingeführt
    • Das ist ein Beispiel dafür, dass Copilot technisch zurückliegt
  • In Unternehmensumgebungen ist Copilot oft das einzige erlaubte AI-Tool, sodass Mitarbeitende andere Tools nur unter Inkaufnahme eines Kündigungsrisikos oder mit erheblichem Aufwand nutzen können
    — Führungskräfte erleben mit solchen Tools miserable Ergebnisse, werten danach AI insgesamt ab oder geben enorme Summen für große Beratungsunternehmen aus, ohne Resultate zu erzielen

Das strukturelle Risiko für Großunternehmen

  • Sicherheitszentrierte, geschlossene IT-Richtlinien blockieren Innovation
    • Extrem verriegelte Umgebungen: Nicht einmal einfache Skript-Interpreter lassen sich lokal ausführen (mit Glück vielleicht VBA, und selbst das ist oft per Group Policy eingeschränkt)
    • Legacy-Software: Für zentrale Workflows gibt es keine internen APIs, an die Agenten überhaupt andocken könnten
    • Siloisierte Engineering-Abteilungen: Oft vollständig ausgelagert, sodass intern das Personal fehlt, um die Infrastruktur für sicher gesandboxte Agenten aufzubauen
  • Natürlich sind Sicherheitsbedenken real – Coding-Agenten unkontrolliert auf Produktionsdatenbanken loszulassen, ist riskant
  • Aber Sandboxing ist schwierig, und das eigentliche Kernproblem ist das Fehlen eines Engineering-Teams, das dies sicher aufbauen kann

Das schnelle Wachstum kleinerer Unternehmen

  • Kleine und mittlere Unternehmen ohne Legacy-Fesseln führen AI schnell ein und steigern ihre Produktivität explosionsartig
    • Auf der einen Seite stehen Finanzleiter, die Microsofts Copilot für Excel ausprobiert haben (bei Geminis Integration in Google Sheets ist es ähnlich schlecht), selbst einfache Aufgaben völlig misslingen sahen und das Tool danach nie wieder anfassen,
    • auf der anderen Seite stehen nichttechnische Führungskräfte, die Claude Code beherrschen und Python lokal ausführen
      • Die Umwandlung eines extrem komplexen Excel-Finanzmodells mit 30 Tabellenblättern in Python wird mit Claude Code mit nur 2–3 Prompts beinahe abgeschlossen
      • Sobald das Modell in Python vorliegt, lässt sich mit Claude Code Kompetenz auf dem Niveau eines Data-Science-Teams erreichen
      • Monte-Carlo-Simulationen ausführen, externe Datenquellen anbinden, Web-Dashboards bauen und Schwächen im Modell (oder im Geschäft) analysieren – all das wird möglich
  • Früher beneideten Mitarbeitende kleinerer Unternehmen oft die Ressourcen und Teams großer Konzerne,
    doch in dieser Umgebung zeigen kleine Teams weit höhere Effizienz als Großunternehmen, und der Produktivitätstrend kehrt sich um

Die künftige Arbeitsstruktur

  • AI-bedingte Produktivitätssteigerung entsteht bottom-up
    • Kleine Teams versuchen, für bestimmte Prozesse AI-gestützte Workflows aufzubauen, und erzielen gute Ergebnisse, weil sie diese Prozesse in- und auswendig kennen
    • Das steht im Kontrast zu ausgelagerten Software-Engineering-Teams ohne jede Prozesserfahrung
    • Das ist das genaue Gegenteil der meisten bisherigen „digitalen Transformations“-Projekte
  • Unternehmen mit APIs für ihre internen Systeme können deutlich mehr erreichen
    • Das Spektrum reicht von einem schlichten Read-only-Data-Warehouse, das Mitarbeitende anbinden können, um Abfragen in ihrem Namen auszuführen, bis hin zur APIisierung zentraler Geschäftsprozesse
  • Code-Agenten in sicher kontrollierten VM-Umgebungen auszuführen ist eine realistische Alternative
    • Für Read-only-Reporting geeignet, bei Datenänderungen aber noch mit Grenzen
  • Legacy-Enterprise-SaaS-Anbieter befinden sich entweder in einem starken Lock-in oder – je nach Perspektive – in einem extrem verwundbaren Zustand
    • Die meisten sind keine „API-first“-Produkte, und bestehende APIs wurden für Entwickler entworfen und sind nicht dafür optimiert, von Tausenden Mitarbeitenden ineffizient aufgerufen zu werden
    • Wenn sie jedoch die Single Source of Truth eines Unternehmens darstellen, ist ein Wechsel sehr schwierig, und sie werden zum Engpass für Produktivitätssteigerungen
  • Kleinere Unternehmen neigen dazu, neuere Produkte mit gut gestalteten APIs zu nutzen
    • Diese neuen SaaS-Produkte sind API-zentriert entworfen und daher für AI-Integration im Vorteil

Eine neue Form der Wissensarbeit

  • Die Kombination aus einer bash-Sandbox mit Zugriff auf Programmiersprachen und System-APIs und einem Agent-Framework wirkt auch für Nichttechniker als leistungsstarkes Produktivitätswerkzeug
    • Nutzer geben einen Prompt ein, und der Agent erzeugt über APIs das Ergebnis
    • Berichte schreiben, Daten analysieren, Dokumente erstellen und alles, was der Nutzer verlangt, im gewünschten Format ausgeben – damit lässt sich der Großteil bestehender Office-Apps ersetzen
  • Das Modell, bei dem der Nutzer promptet, der Agent sich mit APIs verbindet und auf Anforderung Outputs erzeugt, ist die Zukunft der Wissensarbeit
    • Diese Polarisierung ist real und beschleunigt sich rapide
  • Dieser Wandel eröffnet eine Ära, in der kleine Teams schneller Wettbewerbsvorteile aufbauen können als Großunternehmen
    • Die Lücke in der AI-Nutzung existiert tatsächlich, und ihr Tempo nimmt weiter zu
    • Noch nie in der Geschichte konnten kleine Teams Unternehmen, die tausendmal größer sind, so leicht überholen

Noch keine Kommentare.

Noch keine Kommentare.