- Der Referent Gergely Orosz ist Betreiber des Pragmatic-Engineer-Newsletters und -Podcasts sowie ehemaliger Engineer bei Microsoft und Uber und teilt die Realität der GenAI-Einführung, wie er sie in der Praxis erlebt hat
- Anders als die überzogenen Erwartungen von CEOs und Gründern ist die tatsächliche Erfahrung von Entwicklern komplexer, geprägt von den Grenzen der Tools und Unterschieden bei der Produktivität
- AI-Development-Tool-Startups und Big Tech weisen hohe interne Nutzungsraten auf und investieren stark, doch einige Startups und Spezialbereiche berichten weiterhin von begrenztem Nutzen
- Unabhängige Entwickler und erfahrene Engineers spüren zuletzt einen Wendepunkt bei GenAI und reagieren positiv auf höhere Coding-Produktivität und erweiterte Kreativität
- Kent Beck bewertet die Einführung von LLMs als Paradigmenwechsel auf dem Niveau von Internet und Smartphone und betont neue Versuche und Experimente
Vorstellung des Referenten
- Gergely Orosz
- Betreiber des Pragmatic-Engineer-Newsletters und -Podcasts
- 10 Jahre Erfahrung als Engineer bei JP Morgan, Microsoft (Skype), Skyscanner, Uber u. a.
- Untersucht derzeit intensiv die Auswirkungen von GenAI auf Software Engineering
Überzogene Erwartungen und Realität
- Microsoft-CEO: "AI schreibt 30 % des gesamten Codes"
- Anthropic-CEO: "Innerhalb eines Jahres werden 100 % des Codes von AI erzeugt"
- Jeff Dean von Google: "AI erreicht bald das Niveau eines Junior-Entwicklers"
- Die Realität jedoch:
- AI-Agenten erzeugen Bugs und verursachen Kosten in Höhe von mehreren hundert Dollar
- In einer Microsoft-Build-Demo scheiterte AI an einer komplexen Code-Änderung
Startups für AI-Entwicklungstools
- Anthropic:
- Alle internen Engineers nutzen Cloud Code
- Mehr als 90 % des Codes werden von AI geschrieben
- Einführung von MCP (Model Context Protocol) → Verbindung mit IDE, DB, GitHub usw. möglich, großflächige Verbreitung läuft
- Windsurf: 95 % des Codes werden von AI geschrieben
- Cursor: 40–50 % AI-generiert, „die eine Hälfte funktioniert gut, die andere zeigt Grenzen“
Stand bei Big Tech
- Google:
- AI-Funktionen in die eigene IDE Cider integriert (Autovervollständigung, Review, Code-Suche)
- Interne Einführung hat sich im letzten Jahr stark beschleunigt
- Die SRE-Organisation stärkt die Infrastruktur angesichts von 10-mal mehr Codezeilen
- Amazon:
- Amazon Q Developer Pro → stark bei AWS-bezogenen Aufgaben
- Auch Anthropic-Modelle (Claude) werden intern aktiv für Dokumentation und die Bewertungsphase genutzt
- MCP-Server breit integriert → Automatisierung interner Tools breitet sich aus
Startups und einzelne Beispiele
- Incident.io:
- Das gesamte Team experimentiert aktiv mit AI und teilt Tipps in Slack
- Seit der Einführung von Cloud Code stark gestiegene Nutzung
- Biotech-Startup:
- Hoher Bedarf, selbst neuartigen Code zu schreiben, daher geringe Effizienz von LLMs
- Direkte manuelle Programmierung wird weiterhin als schneller bewertet
Unabhängige Entwickler und erfahrene Engineers
- Armin Ronacher (Flask-Erfinder): nutzt Agenten wie virtuelle Praktikanten und spürt höhere Produktivität
- Peter Steinberger (PSPDFKit-Gründer): Sprachbarrieren sinken, und „der technische Funke ist wieder entfacht“
- Simon Willison (Mitgründer von Django): Durch jüngste Modellverbesserungen sind „AI-Coding-Agenten in eine praktische Phase eingetreten“
- Brigita (Thoughtworks): LLMs sind ein neues Abstraktionswerkzeug, das den gesamten Stack umfasst
- Kent Beck (Erfinder von TDD): „In meinen 52 Berufsjahren hatte ich nie mehr Spaß als jetzt“, bewertet LLMs als Innovation auf dem Niveau von Internet und Smartphone
Offene Fragen
- Warum sind CEOs und Gründer stärker begeistert als Engineers?
- Die tatsächliche Nutzungsrate von AI-Tools liegt wöchentlich bei etwa 50 %, von breiter Verallgemeinerung kann also noch keine Rede sein
- Zeitersparnis: Laut DX-Studie etwa 3–5 Stunden pro Woche, also weit entfernt von übertriebenen Behauptungen über „10-fache Produktivität“
- Warum ist der Effekt auf individueller Ebene groß, auf Organisationsebene jedoch geringer?
Fazit
- LLMs könnten einen Produktivitätssprung ermöglichen, vergleichbar mit dem Übergang von Assembler zu höheren Programmiersprachen
- Allerdings ist AI nicht deterministisch, und die Effizienz variiert stark je nach Team und Fachgebiet
- Die Botschaft: Jetzt ist die Zeit zum Experimentieren und Lernen; betont wird, dass man „aktiv Dinge ausprobieren sollte, die billiger geworden und möglich geworden sind“
Noch keine Kommentare.