11 Punkte von GN⁺ 2025-08-18 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Der Referent Gergely Orosz ist Betreiber des Pragmatic-Engineer-Newsletters und -Podcasts sowie ehemaliger Engineer bei Microsoft und Uber und teilt die Realität der GenAI-Einführung, wie er sie in der Praxis erlebt hat
  • Anders als die überzogenen Erwartungen von CEOs und Gründern ist die tatsächliche Erfahrung von Entwicklern komplexer, geprägt von den Grenzen der Tools und Unterschieden bei der Produktivität
  • AI-Development-Tool-Startups und Big Tech weisen hohe interne Nutzungsraten auf und investieren stark, doch einige Startups und Spezialbereiche berichten weiterhin von begrenztem Nutzen
  • Unabhängige Entwickler und erfahrene Engineers spüren zuletzt einen Wendepunkt bei GenAI und reagieren positiv auf höhere Coding-Produktivität und erweiterte Kreativität
  • Kent Beck bewertet die Einführung von LLMs als Paradigmenwechsel auf dem Niveau von Internet und Smartphone und betont neue Versuche und Experimente

Vorstellung des Referenten

  • Gergely Orosz
    • Betreiber des Pragmatic-Engineer-Newsletters und -Podcasts
    • 10 Jahre Erfahrung als Engineer bei JP Morgan, Microsoft (Skype), Skyscanner, Uber u. a.
    • Untersucht derzeit intensiv die Auswirkungen von GenAI auf Software Engineering

Überzogene Erwartungen und Realität

  • Microsoft-CEO: "AI schreibt 30 % des gesamten Codes"
  • Anthropic-CEO: "Innerhalb eines Jahres werden 100 % des Codes von AI erzeugt"
  • Jeff Dean von Google: "AI erreicht bald das Niveau eines Junior-Entwicklers"
  • Die Realität jedoch:
    • AI-Agenten erzeugen Bugs und verursachen Kosten in Höhe von mehreren hundert Dollar
    • In einer Microsoft-Build-Demo scheiterte AI an einer komplexen Code-Änderung

Startups für AI-Entwicklungstools

  • Anthropic:
    • Alle internen Engineers nutzen Cloud Code
    • Mehr als 90 % des Codes werden von AI geschrieben
    • Einführung von MCP (Model Context Protocol) → Verbindung mit IDE, DB, GitHub usw. möglich, großflächige Verbreitung läuft
  • Windsurf: 95 % des Codes werden von AI geschrieben
  • Cursor: 40–50 % AI-generiert, „die eine Hälfte funktioniert gut, die andere zeigt Grenzen“

Stand bei Big Tech

  • Google:
    • AI-Funktionen in die eigene IDE Cider integriert (Autovervollständigung, Review, Code-Suche)
    • Interne Einführung hat sich im letzten Jahr stark beschleunigt
    • Die SRE-Organisation stärkt die Infrastruktur angesichts von 10-mal mehr Codezeilen
  • Amazon:
    • Amazon Q Developer Pro → stark bei AWS-bezogenen Aufgaben
    • Auch Anthropic-Modelle (Claude) werden intern aktiv für Dokumentation und die Bewertungsphase genutzt
    • MCP-Server breit integriert → Automatisierung interner Tools breitet sich aus

Startups und einzelne Beispiele

  • Incident.io:
    • Das gesamte Team experimentiert aktiv mit AI und teilt Tipps in Slack
    • Seit der Einführung von Cloud Code stark gestiegene Nutzung
  • Biotech-Startup:
    • Hoher Bedarf, selbst neuartigen Code zu schreiben, daher geringe Effizienz von LLMs
    • Direkte manuelle Programmierung wird weiterhin als schneller bewertet

Unabhängige Entwickler und erfahrene Engineers

  • Armin Ronacher (Flask-Erfinder): nutzt Agenten wie virtuelle Praktikanten und spürt höhere Produktivität
  • Peter Steinberger (PSPDFKit-Gründer): Sprachbarrieren sinken, und „der technische Funke ist wieder entfacht“
  • Simon Willison (Mitgründer von Django): Durch jüngste Modellverbesserungen sind „AI-Coding-Agenten in eine praktische Phase eingetreten“
  • Brigita (Thoughtworks): LLMs sind ein neues Abstraktionswerkzeug, das den gesamten Stack umfasst
  • Kent Beck (Erfinder von TDD): „In meinen 52 Berufsjahren hatte ich nie mehr Spaß als jetzt“, bewertet LLMs als Innovation auf dem Niveau von Internet und Smartphone

Offene Fragen

  1. Warum sind CEOs und Gründer stärker begeistert als Engineers?
  2. Die tatsächliche Nutzungsrate von AI-Tools liegt wöchentlich bei etwa 50 %, von breiter Verallgemeinerung kann also noch keine Rede sein
  3. Zeitersparnis: Laut DX-Studie etwa 3–5 Stunden pro Woche, also weit entfernt von übertriebenen Behauptungen über „10-fache Produktivität“
  4. Warum ist der Effekt auf individueller Ebene groß, auf Organisationsebene jedoch geringer?

Fazit

  • LLMs könnten einen Produktivitätssprung ermöglichen, vergleichbar mit dem Übergang von Assembler zu höheren Programmiersprachen
  • Allerdings ist AI nicht deterministisch, und die Effizienz variiert stark je nach Team und Fachgebiet
  • Die Botschaft: Jetzt ist die Zeit zum Experimentieren und Lernen; betont wird, dass man „aktiv Dinge ausprobieren sollte, die billiger geworden und möglich geworden sind“

Noch keine Kommentare.

Noch keine Kommentare.