- LLM-Tools ersetzen Programmierer nicht, sondern verstärken die Fähigkeiten von Entwicklern
- Aus der Nutzung von Claude Code wurde deutlich, dass sich die Coding-Geschwindigkeit drastisch erhöht hat, menschliche architektonische Entscheidungen und kontinuierliche Aufsicht aber weiterhin unverzichtbar sind
- Mit der Einführung von LLMs wird Problemdefinition und Design wichtiger als das eigentliche Coding
- Weil AI Fehler verstärkt, besteht für unerfahrene Entwickler das Risiko, Fehler der AI nicht zu bemerken
- Im Programmieren der Zukunft werden die Fähigkeit zur Zusammenarbeit mit AI, Urteilsvermögen und die Entschlossenheit zum Verwerfen zentrale Kompetenzen sein
LLM-Programmierung ist kein Ersatz für Menschen, sondern ein Mittel zur Verstärkung
- LLM-basierte Programmier-Tools sind wie ein Mech Suit, der die Fähigkeiten von Entwicklern verstärkt
- Der Autor entwickelte kürzlich mit Claude Code eine Backend-Agentenplattform und eine Frontend-SaaS-App
- Dabei entstanden insgesamt mehr als 30.000 Zeilen Code, wodurch die praktische Wirkung von LLMs direkt erfahrbar wurde
- Claude Code ersetzt den Nutzer nicht, sondern ist ein Tool, das ähnlich wie Ripleys Power Loader die Fähigkeiten von Entwicklern verstärkt
- Architekturentscheidungen, Qualitätskontrolle und Richtungsgebung werden weiterhin vom Menschen geführt
- AI ist bei Geschwindigkeit und wiederholbaren Aufgaben im Vorteil, aber eine falsche Richtung kann zu fatalen Ergebnissen führen
Vigilance: AI-Coding erfordert ständige Aufmerksamkeit
- Claude Code trifft gelegentlich seltsame Entscheidungen und ignoriert mitunter grundlegende Probleme oder hardcodet Dinge, nur um Tests zu bestehen
- Es kommt auch vor, dass Frameworks überhastet ausgetauscht oder unnötige Abhängigkeiten hinzugefügt werden
- Wie bei einem Piloten ist in entscheidenden Momenten menschliches Eingreifen zwingend erforderlich
- In einem Moment der Unachtsamkeit lief die AI in die falsche Richtung, sodass der Backend-Code gleich dreimal vollständig neu geschrieben werden musste
- LLMs verringern die Coding-Last, aber die Last von Aufsicht und dem Erhalt der Architektur wächst
Veränderung der Ökonomie der Programmierzeit
- Programmierzeit lässt sich traditionell in drei Bereiche unterteilen: Warum (Ziel), Was (Design) und Wie (Coding)
- Seit der Einführung von Claude Code ist die für das „Wie“ benötigte Zeit fast auf null gesunken
- Dafür wird das Nachdenken über „Warum“ und „Was“ noch wichtiger
- Da sich Code leicht erzeugen lässt, braucht es nun den Mut, bestehenden Code konsequent zu verwerfen und einen besseren Ansatz zu wählen
- Diese Entschlusskraft ist vielen Entwicklern noch nicht vertraut; wir leben nun in einer Zeit, in der Design-Urteilskraft wichtiger ist als Implementierungszeit
Der Unterschied, den Erfahrung macht
- Um AI effektiv zu nutzen, braucht es die Einsicht und Urteilskraft aus 30 Jahren Erfahrung
- Selbst wenn Code funktioniert, ist die Fähigkeit wichtig, Antipatterns zu erkennen, die für Skalierung oder Wartbarkeit ungeeignet sind
- Unerfahrene Entwickler übersehen die Probleme von AI-generiertem Code leichter und laufen Gefahr, sich nur mit dem unmittelbaren Effekt zufriedenzugeben
- AI verstärkt nicht nur Fähigkeiten, sondern auch Fehler; ohne Urteilsvermögen steigt daher das Risiko
Der Zentaur-Effekt: Zusammenarbeit von Mensch und AI
- Wie beim aus dem Schach bekannten Zentaur-Schach erzielt die Kombination aus AI und Mensch bessere Ergebnisse als AI allein
- Die Zusammenarbeit mit Claude Code funktioniert ähnlich: Der Mensch gibt die strategische Richtung vor, die AI übernimmt taktische Aufgaben
- Am effektivsten war der Ansatz: „Spezifikation entlang des Gedankenflusses schreiben → gemeinsam mit Claude verfeinern“
- Da Claude keine kontextangemessenen Urteile fällen kann, braucht es immer menschliche Überwachung und Bewertung
Balance finden: Delegation und Kontrolle austarieren
- Lässt man die AI unbeaufsichtigt, versucht sie häufig, Probleme unnötig kompliziert zu lösen
- Beispiele: doppelter Code, falsche Technologieentscheidungen und andere Fehlfunktionen der AI, die reale Probleme verursachen
- Auch im Frontend wiederholten sich Situationen, in denen eigentümliche JavaScript-Implementierungen in Richtung Elixir- oder LiveView-Ansatz korrigiert werden mussten
- Für einfache, repetitive Aufgaben sollte delegiert werden; bei Teilen, die komplexe Urteile erfordern, braucht es einen Kooperationsrhythmus mit direktem Eingreifen
- Dank AI war schnelle Entwicklung möglich, aber ohne menschliches Eingreifen hätte es nicht richtig funktioniert
Die Zukunft ist Augmentation
- LLMs werden Programmierer nicht vollständig ersetzen, aber die Arbeitsweise und die erforderlichen Fähigkeiten stark verändern
- Strukturelles Denken, Mustererkennung und technisches Urteilsvermögen werden wichtiger als bloße Coding-Fähigkeiten
- Schon die Fähigkeit, mit AI zusammenzuarbeiten, entwickelt sich zu einer neuen technischen Kernkompetenz
- Erfolgreiche Entwickler der Zukunft werden AI nicht fürchten, sondern sowohl ihre Grenzen als auch ihre Möglichkeiten verstehen und mit ihr umgehen können
- AI ist kein Werkzeug, das den Menschen beseitigen will, sondern eines, das menschliche Möglichkeiten erweitert
3 Kommentare
Ich bin weder Amuro, noch habe ich einen Gundam zugeteilt bekommen ...?
Dass Leistungsunterschiede bei Mobile Suits keinen entscheidenden Unterschied in der Kampfkraft ausmachen …
Hacker-News-Meinung
Wichtiger als das Coding sind Problemverständnis und Design
Grenzen und Vorsichtspunkte bei LLMs
Produktivitätssteigerung durch LLMs
Die Bedeutung von Erfahrung und technischem Urteilsvermögen
LLMs ersetzen Entwickler nicht, sondern unterstützen sie als Werkzeug
Je nach Nutzungsweise von LLMs unterscheiden sich die Ergebnisse
Veränderungen im Berufsbild und Sorgen durch LLMs
Die Zukunft von LLMs und ihre gesellschaftlichen Auswirkungen