TL;DR;
- Die zentrale Kompetenz für den guten Einsatz von AI ist die Fähigkeit, die Qualität von Ergebnissen zu beurteilen und zu korrigieren — und genau diese Fähigkeit wird paradoxerweise schwächer, je stärker man sich auf AI verlässt
- Nach Bjorks Theorie der „wünschenswerten Schwierigkeiten“ bleibt leicht verarbeitete Information nicht im Langzeitgedächtnis
- In der Studie von Roediger & Karpicke (2006) lag die Gedächtnisleistung der Abrufübungsgruppe eine Woche später etwa 50 % höher als die der Gruppe mit wiederholtem Lesen
- Wenn AI Code anstelle des Entwicklers schreibt, beseitigt sie sogar die intrinsische lernförderliche kognitive Belastung (germane load), sodass schon die Gelegenheit zur Schemabildung entfällt
- Je erfahrener ein Entwickler ist, desto geringer ist wegen neuraler Effizienz die Belastung des Gehirns allein durch das Lesen von AI-Ausgaben
- Schon vor AI gab es Wege, auf denen Entwicklung ins Stocken geriet — AI beseitigt jedoch die Reibung auf diesen Wegen drastisch
Detaillierte Zusammenfassung
Das Paradox: Um AI gut zu nutzen, muss man Code verstehen
- Viele Menschen können sagen: „Baue mir das“, aber deutlich weniger können nach Sichtung des AI-Ergebnisses konkret korrigieren: „Diese Struktur ist anfällig für Änderungen“ oder „Dieses Interface trägt zwei Verantwortlichkeiten“
- Diese Fähigkeit ist fast eine Form von Intuition, die durch zahllose Fehlschläge, Debugging und Refactoring-Erfahrungen entsteht
- Das Lernen, wie man AI verwendet, und das Lernen von Code-Patterns stehen nicht in einem Entweder-oder-Verhältnis; vielmehr ist Letzteres die Grundlage für Ersteres
- „Die Entwickler, die AI am besten nutzen können, sind jene, die Code auch ohne AI beurteilen können.“
Das Gehirn merkt sich nichts, wenn es zu bequem ist
- Bjorks „wünschenswerte Schwierigkeiten“: Wenn im Lernprozess ein angemessenes Maß an Schwierigkeit und Widerstand vorhanden ist, wird die kurzfristige Leistung zwar langsamer, doch Langzeitbehaltensleistung und Transfer verbessern sich
- Roediger & Karpicke (2006): Experiment zu wiederholtem Lesen vs. Abrufübung
- Test nach 5 Minuten: Die Gruppe mit wiederholtem Lesen schnitt besser ab
- Wiederholungstest nach einer Woche: Die Gedächtnisleistung der Abrufübungsgruppe war etwa 50 % höher
- Bei der Gruppe mit aktivem Abruf wurden die Verbindungen zwischen Hippocampus und präfrontalem Kortex gestärkt, zudem nahm die Aktivität im sensomotorischen Netzwerk zu
- Das Gehirn im Zustand passiven Lernens aktiviert nur die Verbindung zwischen Hippocampus und Fusiformgyrus — es ist eher ein „Ansehen von Information“, nicht deren echte Verarbeitung
- Generierungseffekt (Slamecka & Graf, 1978): Eine Gruppe, die Paare wie „heiß-kal___“ selbst vervollständigte, zeigte eine signifikant höhere Gedächtnisleistung als die Gruppe, die bereits vervollständigte Paare nur las
- Die Illusion der Flüssigkeit: Das Gefühl, Informationen leicht verarbeiten zu können, führt zur Täuschung, man werde sie sich auch gut merken
Programmierfähigkeit ist prozedurales Gedächtnis
- Ein großer Teil der Programmierfähigkeit ist prozedurales Gedächtnis — wie beim Fahrradfahren wird vieles, sobald es verinnerlicht ist, automatisch ausgeführt, ohne bewusst darüber nachzudenken
- Andersons ACT-Modell (Adaptive Control of Thought): drei Phasen der Ausbildung prozeduralen Gedächtnisses
- Kognitive Phase: Alles wird bewusst Schritt für Schritt ausgeführt, wobei der Großteil des Arbeitsgedächtnisses verbraucht wird
- Assoziative Phase: Einzelne Abläufe werden integriert und können als zusammenhängender Fluss ausgeführt werden
- Automatisierungsphase: Die Ausführung erfolgt fast ohne Beanspruchung des Arbeitsgedächtnisses — der verbleibende Spielraum kann für Architektur- und Designentscheidungen genutzt werden
- Der Übergang zwischen diesen Phasen gelingt nur durch wiederholtes eigenes Ausführen
- Chunking (Chase-&-Simon-Schachstudie): Der Unterschied zwischen Experten und Anfängern liegt nicht in der Anzahl der Slots im Arbeitsgedächtnis, sondern in der Menge an Information, die in einem einzelnen Chunk gebündelt werden kann
- Schachexperten erkennen nicht einzelne Figurenpositionen, sondern sinnvolle Muster wie „eine typische Mittelspielstellung der Sizilianischen Verteidigung“ als einen Chunk
- Das wurde dadurch belegt, dass der Unterschied zwischen Experten und Anfängern in Experimenten mit zufälligen Aufstellungen verschwand
AI stört diesen Prozess
- Wenn man die Implementierung AI überlässt, übernimmt sie sogar die lernförderliche kognitive Belastung (germane load) — die Gelegenheit zum Aufbau von Schemata verschwindet damit von vornherein
- Aus Sicht des prozeduralen Gedächtnisses verkürzt sich die Zeit des Ringens in der kognitiven Phase, wodurch sich der Übergang in die assoziative Phase verzögert und die Automatisierungsphase schwerer erreichbar wird
- Das Lesen von durch AI erzeugtem Code entspricht im Generierungseffekt-Experiment dem „Lesen bereits vervollständigter Wortpaare“ — man glaubt zu verstehen, doch es prägt sich nicht tief ein
- Je erfahrener ein Entwickler ist, desto weniger Ressourcen benötigt er aufgrund neuraler Effizienz zur Verarbeitung von Code — das Lesen von AI-Ausgaben belastet das Gehirn daher oft weit weniger als gedacht
- Beim eigenen Schreiben von Code werden durch die Schleife aus Vorhersage und Feedback Synapsen angepasst; das Lesen fertigen AI-Codes ist dagegen nur eine nachträgliche Interpretation ohne eigentlichen Vorhersageprozess
- Besonders gravierend ist das für Junioren: Wenn viele ihrer Muster noch in der kognitiven Phase sind und AI sie diese Phase überspringen lässt, sammeln sie Berufsjahre, ohne prozedurales Gedächtnis aufzubauen
Wie man das Gehirn gezielt belastet
- Vor dem Einsatz von AI zunächst einen eigenen Entwurf erstellen: So nutzt man den Generierungseffekt bewusst — beim Vergleichen und Bewerten mit der AI-Ausgabe werden die Bereiche des Gehirns für Bedeutungsverarbeitung und exekutive Kontrolle gleichzeitig aktiviert
- Ernsthafte Code-Reviews: Sich bewusst fragen „Warum diese Struktur?“ und „Wo würde das in sechs Monaten bei einer Änderung problematisch werden?“ — genau diese Mühe ist eine wünschenswerte Schwierigkeit
- Sich Zeit nehmen, selbst Code zu schreiben: Für den Aufbau prozeduralen Gedächtnisses ist das unersetzlich — wenn man feststeckt, sollte man AI nicht nach der ganzen Lösung, sondern nur nach minimalen Hinweisen fragen
- Die optimale Strategie für Produktion und Lernen ist nicht dieselbe: Als Produktionswerkzeug ist AI hervorragend, als Lernwerkzeug hat sie Grenzen
- Letztlich bestimmt das, was im Gehirn tatsächlich hängen bleibt, die Qualität von Code-Reviews, die Genauigkeit von Designentscheidungen und paradoxerweise auch die Fähigkeit, AI gut zu nutzen
20 Kommentare
Ich persönlich spüre schmerzhaft, wie schlecht AI in meinem Fachgebiet ist. Ich vermute, dass es Experten in anderen Bereichen ähnlich geht. Natürlich ist sie eine große Hilfe. Zwar muss man den ganzen Tag lang belehrende Dokumente schreiben, aber mit der früheren Produktivität ist das überhaupt nicht zu vergleichen.
Attention bildet sich durch Mehrheitsentscheidungen.
Ein Verifizierungsagent muss nur die Bewertungsfunktion bestehen.
Hervorragender Industrie-Code ist größtenteils nicht öffentlich zugänglich.
Open Source ist Code, der zum Vorzeigen gedacht ist.
Diesen Punkt sollte man beim Einsatz immer im Hinterkopf behalten.
Sehe ich genauso. Kerndaten aus hochspezialisierten Domänen wie Luft- und Raumfahrt, Medizin oder Präzisionsregelung liegen strikt in abgeschotteten internen Netzen; Zugriff bekommt man nur als zentraler Insider oder extern allenfalls mit erheblichem Kostenaufwand und nach Unterzeichnung einer NDA. Die meisten Daten, mit denen AI lernt, sind im Internet öffentlich verfügbar, und bei Python- bzw. JavaScript-basierten Web-/App-Services ist Full Automation bis zu einem gewissen Grad möglich.
Da die in hochentwickelten Domänen verwendeten 3D-Grafiken und CAD-basierten Algorithmen im Internet nur fragmentarisch verstreut oder gar nicht vorhanden sind, kann auch AI mit Vibe Coding letztlich nur oberflächliche Ergebnisse erzeugen. Ich halte es für einen sicheren und realistischen Ansatz, einen Main Agent zu haben und den Domänenkontext fortlaufend auf dem Niveau von Mikromanagement einzuspeisen, sodass nicht als vollständige Automatisierung, die der Entwickler nicht selbst führt, entwickelt wird, sondern als kontinuierliche Verstärkung im Planning → Redirection → Review-Zyklus unter direkter Führung des Entwicklers.
Ich habe auch in meinem eigenen Fachgebiet noch das Gefühl, nicht ausreichend zu sein. Deshalb gehe ich vorsichtig davon aus, dass es in den Bereichen, in denen ich mir helfen lasse, ungefähr auf diesem Niveau sein wird. Da die Entwicklungsgeschwindigkeit allerdings ziemlich hoch ist, versuche ich es stattdessen bei Aufgaben einzusetzen, bei denen eine Qualität auf diesem Niveau weiterhin ausreicht.
Täuscht mich mein Eindruck, oder gibt es hier auch ziemlich viele Kommentare, die offenbar von AI verfasst wurden?
Es fühlt sich an, als wären wir in einer Dystopie angekommen.
Letztlich entscheidet sich der Mensch für das Bequeme. Das Ergebnis ist, dass heute fast alle Shortform-Content konsumieren, obwohl sie wissen, dass er nicht gut ist. Genauso wird AI im nächsten Schritt keine Option mehr sein, sondern unverzichtbar, und der Unterschied in der Produktivität zwischen Nutzung und Nichtnutzung ist tatsächlich groß. Das gilt für Entwickler wie für Nicht-Entwickler gleichermaßen. Es unterscheiden sich nur Methode und Vorgehensweise. Wie Sie unten mit dem Handy verglichen haben: So wie man sich keine Telefonnummern mehr merken muss, können moderne Menschen heute ohne Navigation nicht mehr allein anhand einer Karte fahren, und selbst Strecken, die sie immer nehmen, merken sie sich nicht extra.
Heißt das nun, dass die Fahrfähigkeit verkümmert ist oder das räumliche Vorstellungsvermögen oder das Gedächtnis nachgelassen haben? Nein, durch die Entwicklung der Navigation können wir mit Navi inzwischen überallhin fahren.
Außerdem wird oft davon gesprochen, dass die Nutzung von AI zu einem Abbau menschlicher kognitiver Fähigkeiten führe, aber ich denke, das ist keine Verkümmerung, sondern eher eine Veränderung der kognitiven Fähigkeiten in eine andere Form.
In letzter Zeit wird auch über manuelles Coden gesprochen. Ich stimme zu, wenn man die Angst davor, dass die eigenen Legacy-Fähigkeiten obsolet werden, im Rahmen eines Hobbys verarbeitet. Aber ich hoffe, dass daraus nicht eine Richtung wird, als wäre das die einzig richtige Antwort, nach dem Motto: Entwickler müssen unbedingt manuell coden, um ihre grundlegenden Fähigkeiten zu verbessern!
Auch die Entwicklung von Programmiersprachen ist letztlich in die Richtung verlaufen, menschlicher vertrauter natürlicher Sprache immer näher zu kommen. Und ich glaube, wir befinden uns gerade in einer Übergangsphase auf dem Weg zu diesem endgültigen Ziel.
So etwas wirkt wie ein Festhalten an früheren Arbeitsweisen. Solche Bereiche wird die KI ohnehin besser beherrschen. Wichtig ist jetzt die Erfahrung darin, mit KI zu arbeiten und die Teile zu verbessern, die noch nicht gut funktionieren. Aber auch das halte ich für zeitlich begrenzt.
Das ist natürlich nicht nur aufs Programmieren beschränkt. Wünschenswerte Schwierigkeiten sind nicht bloß eine abgedroschene Parole, sondern beruhen auf verschiedenen wissenschaftlichen Erkenntnissen.
Einen Taschenrechner zu haben und trotzdem das kleine Einmaleins auswendig zu lernen, wirkt wie eine Fixierung auf frühere Arbeitsweisen. Solche Dinge wird der Taschenrechner ohnehin besser können. Wichtig ist jetzt die Erfahrung, beim Einsatz des Taschenrechners die Teile zu verbessern, die noch nicht gut funktionieren. Aber auch das halte ich nur für vorübergehend.
Ich habe das Gefühl, dass immer mit einer ähnlichen Logik dagegengehalten wird ... Ein Taschenrechner rechnet nicht falsch. Er erfüllt seine Aufgabe ordentlich.
Manchmal mache ich mir Sorgen, dass eines Tages ein Taschenrechner kaputtgeht,
3 X 3 = 10ausgibt und niemand merkt, dass das falsch ist ... Wenn das auf dem Computer des Programmierers passiert, der mein Bankkonto verwaltet ... Vorsicht kann wohl nicht schaden.Die Aussage „Ein beträchtlicher Teil der Programmierfähigkeiten ist prozedurales Gedächtnis“ spricht mich sehr an.
Auch das Lösen von Mathematikaufgaben ist letztlich das Einprägen von Verfahren und das Üben, damit man immer wieder zum gleichen Ergebnis kommt.
Mit KI zu programmieren ist völlig in Ordnung, aber es scheint wichtig zu sein, das Gehirn dennoch zu fordern, damit man Ergebnisse auf demselben Niveau oder besser wiederholt reproduzieren kann.
Ein kurzer Gedanke, aber in letzter Zeit kommt mir Folgendes in den Sinn. Früher sollen Assembler-Experten zu C-Sprachentwicklern gesagt haben: „Die wissen gar nicht, wie kostbar Speicher ist“ oder „Die verstehen die Hardware nicht“ und Ähnliches. Wenn man es heute betrachtet, ist das nicht ein ähnlicher Einwand im gleichen Kontext? Letztlich entwickeln wir aus Sicht der Softwareentwicklung doch nur mit einer stärker abstrahierten Sprache (AI) als mit den bisherigen Programmiersprachen. Daher ist es nur natürlich, dass die Fachkenntnis in den zuvor verwendeten Sprachen abnimmt. So wie man bis vor Kurzem Entwickler, die mit noch Low-Level-näheren Sprachen als heute gearbeitet haben, als „Monster“ bezeichnete, könnten nun diejenigen, die zwar mit Vibe-Coding entwickeln, aber die Prinzipien der bestehenden Sprachen weiterhin verstehen, vielleicht als etwas Besonderes gelten.
„If you're nothing without the suit, then you shouldn't have it.“ – Tony Stark
Dann muss man wohl bewusst einen Prozess einbauen, in dem man auch Unannehmlichkeiten in Kauf nimmt.
Wenn ich Entwickler sehe, die gedankenlos Vibe-Coding betreiben, könnte ich ausrasten. Wenn die Qualität ihrer eigenen Ergebnisse miserabel ist, sollen sie sich nur mal damit herausreden, dass die KI es geschrieben hat. Die Verantwortung tragen sie selbst.
AI fühlt sich an wie die Nutzung einer elektrischen Bohrmaschine, einer Kettensäge oder eines Baggers. Seit der Nutzung von Mobiltelefonen gibt es viele Menschen, die nicht einmal mehr ihre eigene Telefonnummer auswendig kennen.
...Man kann so etwas als Abbau sehen, aber ich betrachte es als Effizienz. Aus meiner Erfahrung als Entwickler und in verschiedenen anderen Rollen sind AI-Tools aus meiner Sicht auch Werkzeuge, die dabei helfen und die Chance bieten, aus der Welt nur für Entwickler auszubrechen und eine breitere Perspektive zu gewinnen. In einem Bereich mag es zu einem Abbau kommen, aber dieser Bereich wird mit etwas anderem gefüllt.
Ich stimme dieser Meinung ebenfalls zu.
Letztlich halte ich es für ein Werkzeug mit klaren Trade-offs.
Ich mache mir zwar auch Sorgen, dass die Programmierfähigkeiten mit zunehmender Nutzung von AI nachlassen könnten, aber es ist ebenso klar, dass man sich dadurch mit anderen Fragen beschäftigt, die man früher nicht gestellt hat (oder nicht stellen konnte).
Zumindest wenn man einer KI Anweisungen gibt, scheint es hilfreich zu sein, nicht nur ein paar kurze Worte hinzuwerfen, sondern die eigenen Gedanken und den logischen Gedankengang möglichst konkret und ausführlich darzulegen. Außerdem sollte man festlegen, dass sie vor der Ausführung unbedingt nachfragt, falls noch etwas zu klären ist, und erst dann fortfährt.
Das erinnert mich an den Begriff der digitalen Demenz.