Wie man im Zeitalter der AI technischen Fähigkeitsabbau vermeidet
(addyo.substack.com)- Produktivitätsgewinne durch AI-Tools bergen für Entwickler das Risiko eines Kernkompetenzabbaus (skill atrophy)
- Wer sich zu stark auf AI verlässt, schwächt nach und nach kritisches Denken und Problemlösungsfähigkeit
- Wichtige Fähigkeiten wie Debugging, Architekturentwurf und Erinnerungsvermögen können allmählich verkümmern
- AI sollte als Werkzeug dienen, aber die Gewohnheit, selbst zu denken und zu lernen, muss unbedingt erhalten bleiben
- Wer AI in einer kooperativen Arbeitsweise nutzt, kann sowohl Produktivität als auch technische Fertigkeiten verbessern
Wie man im Zeitalter der AI technischen Fähigkeitsabbau vermeidet
- Der Aufstieg von AI-Assistenten im Coding-Bereich bringt neben Produktivitätsgewinnen auch das Risiko von Fähigkeitsabbau (skill atrophy) mit sich
- Fähigkeitsabbau bezeichnet das Phänomen, dass Fähigkeiten mit der Zeit schwächer werden, wenn sie zu wenig genutzt oder geübt werden
- Wiederholende Aufgaben an AI zu delegieren kann sinnvoll sein, doch im Übermaß kann es zum Verlust zentraler Fähigkeiten führen
- Durch cognitive offloading wächst die Tendenz, sich auf AI zu verlassen, statt Dokumentationen oder Tutorials selbst zu durcharbeiten
- So wie die Nutzung von GPS die Orientierungsfähigkeit geschwächt hat, können AI-Autovervollständigung und Codegenerierung das Denkvermögen beeinträchtigen
- Dass AI Boilerplate-Code übernimmt, eröffnet Chancen, sich an große Projekte zu wagen, doch es ist wichtig, die Grenze zwischen Automatisierung und Fähigkeitsabbau zu ziehen
Wird kritisches Denken zum Opfer?
- Laut einer Studie von Microsoft und Carnegie Mellon aus dem Jahr 2025 gilt: Je höher die Abhängigkeit von AI, desto stärker der Rückgang des kritischen Denkens
- Übermäßiges Vertrauen in AI versetzt Menschen in einen Autopilot-Zustand, statt sie selbstständig denken zu lassen
- Je einfacher eine Aufgabe ist, desto eher sinkt die Wachsamkeit, was langfristig zu einer Abnahme der eigenständigen Problemlösungskompetenz führt
- Personen, die mit AI-Unterstützung arbeiten, neigen dazu, weniger vielfältige Lösungsansätze für dasselbe Problem vorzuschlagen, was zu einer Vereinheitlichung des Denkens führt
- Die Forschenden definieren dies als Rückgang kritischen Denkens
- Barrieren, die kritisches Denken behindern
- Kognitive Barrieren: Je repetitiver die Aufgabe, desto größer die Tendenz, sich übermäßig auf AI zu verlassen
- Motivationale Barrieren: Zeitdruck oder Einschränkungen des Aufgabenbereichs führen dazu, dass tiefes Nachdenken vermieden wird
- Fähigkeitsbarrieren: Es fällt schwer, AI-Antworten eigenständig zu prüfen oder zu verbessern
- Ein Ingenieur gestand, dass er sich trotz 12 Jahren Berufserfahrung durch die sofortige Hilfe von AI wie ein schlechterer Entwickler fühle
- Keine Dokumentationen mehr lesen: Weil LLMs sofort Erklärungen liefern, erscheint das Lesen offizieller Dokumentation unnötig
- Nachlassende Debugging-Fähigkeit: Statt Stack Traces oder Fehlermeldungen selbst zu analysieren, werden sie in AI hineinkopiert, um eine Lösung zu bekommen
- Verlust tiefen Verständnisses: Statt ein Problem wirklich verstehen zu wollen, werden nur noch AI-Vorschläge wiederholt angewendet
- Veränderte emotionale Reaktion: Wo früher Freude am Lösen von Bugs war, entsteht heute Frustration, wenn AI nicht innerhalb von fünf Minuten eine Antwort liefert
- Wer das Denken an LLMs delegiert, tauscht langfristige Meisterschaft gegen kurzfristige Bequemlichkeit
"Wir sind dank AI nicht zu 10x-Entwicklern geworden, sondern 10x abhängiger von AI"
"Jedes Mal, wenn wir ein Problem, das wir selbst lösen könnten, von AI lösen lassen, tauschen wir langfristiges Verständnis gegen kurzfristige Produktivität"
Subtile Anzeichen von Fähigkeitsabbau
- AI-Abhängigkeit ist nicht nur eine Hypothese, sondern kann tatsächlich zu einer Schwächung von Entwicklerfähigkeiten führen
- An einigen klaren Signalen lässt sich prüfen, ob bereits Fähigkeitsabbau einsetzt
-
Aufgabe des Debuggings
- Wenn Fehler auftreten, wird statt eines Debuggers oder des direkten Lesens von Stack Traces sofort auf AI zurückgegriffen
- Früher erfolgte Wachstum durch das eigene Analysieren und Beheben von Bugs, heute wird dieser Prozess oft an AI ausgelagert
- Wenn AI nicht helfen kann oder nicht verfügbar ist, droht ein Zustand, in dem selbst grundlegende Problemdiagnose schwerfällt
-
Coding per Copy-paste ohne Verständnis
- Es ist in Ordnung, Boilerplate-Code von AI schreiben zu lassen, problematisch wird es jedoch, wenn man ihn kopiert und verwendet, ohne zu verstehen, warum er so funktioniert
- Gerade jüngere Entwickler schreiben dank AI schnell Code, können aber oft weder die Gründe für diese Wahl noch die Behandlung von Sonderfällen erklären
- Wenn der Prozess entfällt, über verschiedene Alternativen nachzudenken, fehlt grundlegendes Denktraining
-
Nachlassende Architektur- und Systemdenkfähigkeit
- Das Design komplexer Systeme lässt sich nicht mit einem einzelnen Prompt lösen
- Wer sich daran gewöhnt, kleine Probleme mit AI zu lösen, kann Angst vor höherwertigen Designaufgaben entwickeln oder ihnen ausweichen
- AI kann bestimmte Komponenten oder Muster vorschlagen, doch den Gesamtkontext in Bezug auf Performance, Sicherheit und Wartbarkeit zu verstehen, bleibt Aufgabe des Entwicklers
- Systemisches Denken schwächt sich ab, wenn es nicht genutzt wird
-
Rückgang von Gedächtnis und Abruffähigkeit
- Selbst häufig genutzte API-Aufrufe oder Sprachsyntax können im Gedächtnis verblassen
- Wer sich an AI-Autovervollständigung gewöhnt, verliert an Fähigkeit, Code eigenständig zu schreiben
- Das lässt sich mit Schülern vergleichen, die sich zu stark auf Taschenrechner verlassen und dadurch grundlegende Rechenfertigkeiten verlieren
- Dass einige Fähigkeiten mit der Zeit auf natürliche Weise verschwinden, ist grundsätzlich normal
- So ist es zum Beispiel nicht mehr essenziell, Speicher direkt in Assembler zu verwalten oder lange Divisionen von Hand zu rechnen
- Wichtig ist jedoch, zu unterscheiden, welche Fähigkeiten erhalten bleiben müssen und welche man aufgeben kann
- Die Fähigkeit, in Notfällen debuggen zu können, sollte weiterhin als unverzichtbare Kompetenz gelten
Trade-off zwischen Geschwindigkeit und Wissen:
AI liefert schnelle Antworten (hohe Geschwindigkeit, wenig Lernen),
traditionelle Wege (Stack Overflow, offizielle Dokumentation) sind langsamer, bauen dafür aber tiefes Verständnis auf - Wer nur nach sofortigen Antworten jagt, riskiert, Kontextverständnis und Tiefe zu verlieren, die für echte Expertise nötig sind
Langfristige Risiken übermäßiger AI-Abhängigkeit
- Wenn übermäßige Abhängigkeit von AI-Tools unkontrolliert bleibt, kann dies beruflich zu einer Krise des kritischen Denkens führen
- Wenn AI den Großteil der Denkprozesse übernimmt, verliert man die Fähigkeit, selbst zu reagieren, wenn das Tool versagt oder ein Problem nicht lösen kann
"Je mehr AI man nutzt, desto weniger nutzt man das eigene Gehirn. Und wenn dann ein Problem auftaucht, das AI nicht lösen kann – hast du dann noch die Fähigkeiten, es selbst zu lösen?"
- Tatsächlich gab es bereits Fälle, in denen Ausfälle von AI-Coding-Assistenten die Workflows von Entwicklern komplett zum Stillstand brachten
-
Sich selbst erfüllende Prophezeiung (Self-Fulfilling Prophecy)
- Das Microsoft-Forschungsteam warnt: Wer sich zwar um Jobverlust durch AI sorgt, AI aber gleichzeitig unkritisch nutzt, könnte seine eigene Wettbewerbsfähigkeit selbst untergraben
- Besonders Berufseinsteiger laufen Gefahr, den "schwierigen Weg" zu überspringen, nur auf schnelle Produktivität zu setzen und ohne vertieftes Lernen früh in eine Wachstumsstagnation zu geraten
- Am Ende könnte eine Gruppe von button-pushers entstehen, die nie die Freude am eigenständigen Lösen von Problemen oder an tiefem Verständnis erfahren hat
- Sie mögen geschickt darin sein, AI die richtigen Fragen zu stellen, verstehen aber möglicherweise die eigentliche Antwort nicht wirklich
- Wenn AI subtile Fehler macht, werden diese womöglich nicht erkannt, sodass sich Bugs oder Sicherheitslücken in den Code einschleichen
-
Teamkultur und Organisationsdynamik
- Wenn alle Entwickler nur noch AI-Assistenten nutzen, können Mentoring und informelles Lernen (osmosis learning) geschwächt werden
- Wenn Junior-Entwickler sich eher auf AI als auf Kollegen verlassen, wird es für Senior-Entwickler schwieriger, Wissen weiterzugeben
- Gibt es viele Juniors mit schwachen Grundlagen, verbringen Seniors ihre Zeit damit, von AI erzeugte Fehler zu korrigieren
- Am Ende droht ein Team, das nur noch aus einzelnen, AI-abhängigen Mitgliedern besteht, während eine Kultur kritischer Reviews und gemeinsamer Qualitätssicherung verschwindet
- Zum Bus-Faktor (bus factor) könnte faktisch auch ein Ausfall des AI-Dienstes gezählt werden
- "Wie viele Menschen müssten vom Bus erfasst werden, damit das Projekt zusammenbricht?"
- Das ist kein Aufruf zur Rückkehr ins Analoge, sondern eine Warnung vor unbedachtem AI-Einsatz
- Man sollte AI nutzen, ohne dabei nicht nur die Arbeit selbst, sondern auch das eigene Denken auszulagern
- Das Ziel ist, die Vorteile von AI maximal zu nutzen und gleichzeitig die eigenen Fähigkeiten und das eigene Denkvermögen robust zu erhalten
AI nicht als Krücke, sondern als Partner nutzen
- Wer die Produktivitätsgewinne von AI-Coding-Assistenten nutzen und zugleich Denkvermögen und Fähigkeiten erhalten will, braucht bewusste Nutzungsgewohnheiten
- AI sollte nicht als allwissender Antwortgeber, sondern eher wie ein Junior-Pair-Programmierer oder Rubber-Duck-Debugging-Partner behandelt werden
- Hier einige konkrete Strategien, die sich zu bedenken lohnen
-
"AI hygiene" praktizieren – immer prüfen und verstehen
- Auch wenn AI-Ergebnisse plausibel wirken, sollten sie nie blind vertraut, sondern immer verifiziert werden
- Für von AI erzeugte Funktionen oder Code sollten gezielte Tests durchgeführt und Edge Cases gesucht werden
- Man sollte sich selbst fragen: "Warum funktioniert diese Lösung?" und "Wo liegen ihre Grenzen?"
- Bitte AI darum, Code Zeile für Zeile zu erklären oder alternative Ansätze vorzuschlagen, um den Lerneffekt zu erhöhen
- Wer AI-Antworten hinterfragt, kann passive Antworten in aktive Lektionen verwandeln
-
Grundlagen trainieren – manchmal muss es auch mühsam sein
- Jede Woche feste Zeitfenster als "Coding-Zeit ohne AI" einplanen, um Probleme rein manuell zu lösen
- Erfahrene Entwickler setzen mitunter einen "No-AI Day" an und schreiben Code, analysieren Fehler und durchsuchen Dokumentation ganz bewusst selbst
- Anfangs ist das langsamer und frustrierender, doch mit der Zeit kehren Selbstvertrauen und tiefes Verständnis zurück
- Wer kontinuierlich ohne AI codet, verhindert, dass die Grundlagen durch Entropie erodieren
- Das ist wie Cross-Training für das Entwicklergehirn
-
Erst selbst an das Problem herangehen, bevor man AI fragt
- Wenn ein Problem auftaucht, nicht sofort AI fragen, sondern zunächst selbst über einen Ansatz nachdenken
- Mindestens Pseudocode oder eine einfache Idee sollte man selbst formulieren, bevor AI zum Einsatz kommt
- Bei Bugs sollte man sich mindestens 15 bis 30 Minuten Zeit nehmen, um selbst zu debuggen
- So wächst die Problemlösungskompetenz, und durch den Vergleich zwischen eigener Herangehensweise und AI-Antwort wird aktives Lernen möglich
-
AI nicht als Ersatz für Code Review verwenden, sondern als Verstärkung
- Auch von AI erzeugter Code sollte so gründlich geprüft werden wie Code von menschlichen Kollegen
- Wenn möglich, sollte menschliches Code Review für AI-Code beibehalten werden, um die Qualität auf Teamebene zu sichern
- So bleibt Teamwissen im Kreislauf und Probleme werden erkannt, die ein einzelner Entwickler beim Vertrauen auf AI übersehen könnte
- Das fördert die Haltung: "AI darf einen Entwurf liefern, aber der Code gehört uns"
- Unabhängig davon, wer den Code geschrieben hat, trägt das Team die Verantwortung dafür, jeden Code im Repository zu verstehen und zu warten
-
Aktives Lernen – Nachfragen und Wiederholung
- Auch wenn eine von AI vorgeschlagene Lösung gut funktioniert, sollte man sich Zeit nehmen, das Gelernte direkt zu festigen
- Wenn AI einen komplexen regulären Ausdruck oder Algorithmus erstellt hat, sollte man die Struktur selbst erklären oder AI fragen, warum genau diese Methode gewählt wurde
- AI sollte nicht nur als Antwortmaschine, sondern dialogisch wie ein Tutor mit unendlicher Geduld genutzt werden
- Zu von ChatGPT erzeugtem Code fragen: "Warum funktioniert diese Methode nicht?"
- So wird AI nicht bloß zum Code-Lieferanten, sondern zum Mentor
-
Lernprotokoll und Liste der "AI-Assists" führen
- Themen, die man AI wiederholt fragt, sollten notiert werden, um Wissenslücken sichtbar zu machen
- Wenn man zum Beispiel wiederholt nach CSS-Div-Ausrichtung oder SQL-Query-Optimierung fragt, sollte man diese Themen gezielt lernen
- Mit Karteikarten oder kurzen Übungsaufgaben lässt sich das Gelernte wiederholen und ins Langzeitgedächtnis überführen
- Beim nächsten ähnlichen Problem sollte man versuchen, es ohne AI zu lösen, und prüfen, ob man sich an die Methode erinnert
- Die Haltung sollte sein, AI nicht als erste Lösung, sondern als letztes Sicherheitsnetz zu verwenden
-
Pair Programming mit AI
- Statt AI wie eine API für die Bearbeitung von Fragen zu behandeln, sollte man mit ihr wie mit einem Pair-Programming-Partner interagieren
- Man kann zum Beispiel selbst einen Funktionsentwurf schreiben und AI um Verbesserungsvorschläge bitten oder umgekehrt einen AI-Entwurf selbst überarbeiten
- Beispiel für einen Dialog: "Diese Funktion funktioniert, aber gibt es eine Möglichkeit, sie klarer zu refaktorieren?"
- So bleibt man selbst am Steuer: Man konsumiert nicht bloß Antworten, sondern kuratiert und steuert den Beitrag der AI
- AI sollte wie ein Junior-Entwickler unter Aufsicht behandelt werden, wobei die endgültige Verantwortung beim menschlichen Entwickler liegt
- Mit solchen Gewohnheiten wird AI-Nutzung zu einem echten Nettogewinn, ohne dass die eigenen Fähigkeiten verloren gehen
- Tatsächlich kann es für die persönliche Weiterentwicklung sehr nützlich sein, sich unbekannten Code von AI erklären zu lassen oder AI mit komplexen Fällen zu testen
- Wenn man etwa unbekannten Code durch AI erklären lässt, kann das Wissen vertieft werden; und wenn man AI mit kniffligen Fällen ins Schleudern bringt, stärkt das das Test-Denken
- Entscheidend ist, kein passiver Konsument, sondern ein aktiver Nutzer zu bleiben
Fazit: Scharf bleiben
- Die Softwarebranche beschleunigt in Richtung einer Ära AI-basierter Codegenerierung; dieser Trend ist inzwischen unumkehrbar
- Solche Tools anzunehmen ist nicht nur unvermeidlich, sondern meist auch vorteilhaft
- Doch während AI in den Workflow integriert wird, muss jeder sorgfältig abwägen, was man der Maschine überlässt und was man selbst bewahren muss
- Wer das Programmieren liebt, sollte nicht nur schnell Features ausliefern wollen, sondern auch die Handwerkskunst und Freude am Problemlösen bewahren
- AI sollte als Fähigkeitsverstärker (amplifier) dienen, nicht als Ersatz (replacement)
- AI kann wiederkehrende Aufgaben übernehmen, und die dadurch frei werdende Zeit sollte in kreative und komplexe Arbeit investiert werden
- Gleichzeitig muss man darauf achten, dass grundlegende Fähigkeiten nicht verkümmern, und die Neugier bewahren, immer weiter nach dem "Wie" und "Warum" zu fragen
- Debugging-Instinkt und systemisches Denken müssen weiter geschärft werden; man darf nicht nur den von AI angebotenen Abkürzungen folgen
- "Kurz gesagt: Mach AI zu deinem Partner, nicht zu deiner Krücke"
- Erfolgreiche Entwickler werden diejenigen sein, die menschliche Intuition und Erfahrung mit den Superkräften der AI harmonisch verbinden können
- die sich in einer Codebasis zurechtfinden können – ob mit oder ohne Autopilot
- Durch selbstgesteuertes Üben und Herausforderungen sollte man in der Lage sein, Probleme auch dann selbst zu lösen, wenn fancy Tools versagen oder neue Probleme auftauchen
- "Sorge dich nicht darum, dass AI dich ersetzt, sondern darum, keine Fähigkeiten zu entwickeln, die dich unersetzlich machen"
- Wer sich stets an das Prinzip hält, die Antworten von AI mit dem Geist eines Ingenieurs zu verstehen, wird auf der AI-Welle reiten, ohne von ihr mitgerissen zu werden
-
Bonus
- Wenn du das nächste Mal in Versuchung gerätst, AI ein ganzes Feature coden zu lassen, nimm das als Signal, einen Teil davon selbst zu schreiben
- Erstaunlicherweise erinnert man sich oft an mehr, als man denkt, und kann die Freude am direkten Coden mit der Hand wiederentdecken
- Nutze AI als Werkzeug zur Produktivitätssteigerung, aber höre nie auf, deine Fähigkeiten aktiv zu schärfen
Der beste Entwickler der Zukunft wird jemand sein, der dank der heutigen AI nicht verlernt hat, selbst zu denken
6 Kommentare
https://freederia.com/researcharchive/
Dies ist die Website des AI-Wissenschaftlers.
Eine solche Richtung wird eine noch größere Vielfalt an Entwicklungen fördern.
Es ist eine Technologie, die einem ein kaum abweisbares Maß an Produktivität verleiht. Wenn sie dann auch noch Ansätze oder Bibliotheks-APIs nutzt, an die man im Normalfall nie gedacht hätte, sprühen im Gehirn regelrecht die Funken. Dass man zehnmal stärker von KI abhängig wird, ist ein natürliches Phänomen, aber um alles einer All-in-One-Lösung zu überlassen, muss man sich bewusst machen, dass sie letztlich ein Co-Pilot ist. Im Alltag ebenso wie beim Code fühlt es sich an, als wäre immer ein wirklich freundlicher Doktorand direkt an der Seite.
Ein Junior-Entwickler, mit dem ich früher zusammengearbeitet habe ... Ich sah, dass er Code aus einer Internetsuche einfach 1:1 hineinkopiert hatte, ohne sogar die Einrückung zu korrigieren ... und seufzte dann ...
„Kopieren Sie nicht einfach den Code, der bei einer Google-Suche auf Seiten wie Stack Overflow auftaucht. Verstehen Sie ihn und verwenden Sie ihn dann.“
Das habe ich ihm einmal gesagt.
Warum ist es jetzt genau dasselbe? Haha
Für Menschen, die sich damit nicht gut auskennen, ist das schließlich der einfachste Weg.
War
Foundationgar keine SF-Romanreihe, sondern ein prophetisches Werk?Hacker-News-Kommentare
Bietet eine andere Perspektive auf die gängige Analogie, dass GPS die Fähigkeit zum Kartenlesen schwächt. Der Vater, der vor GPS Auto fahren lernte, hat Schwierigkeiten, Fahren und Navigation gleichzeitig zu bewältigen. Wer dagegen mit GPS Auto fahren lernte, entwickelte die Fähigkeit, Navigationsanweisungen zu verarbeiten und gleichzeitig das Fahren zu steuern. Diese Fähigkeit ist zu einer essenziellen Kompetenz moderner Autofahrer geworden
Mit LLMs kann man Lehrbuchaufgaben fotografieren und sich so beim Verständnis helfen lassen. LLMs sind Werkzeuge, die die Absichten von Menschen verstärken, und sie sind für Menschen mit echter Lernabsicht vorteilhaft. Auf Menschen, die nur den äußeren Schein aufpolieren wollen, können sie jedoch negative Auswirkungen haben
Durch die Arbeit mit LLMs verbessern sich die Fähigkeiten, ein Problem vollständig zu verstehen und die eigene Absicht klar zu erklären. LLMs beschleunigen das Coding, können aber auch schneller falschen Code erzeugen. Deshalb werden die Fähigkeit, Systemanforderungen klar zu beschreiben, und das Denken auf einem hohen Abstraktionsniveau immer wichtiger
Es gibt die Ansicht, dass der mit KI verbundene Kompetenzabbau ein beabsichtigtes Ergebnis zur Senkung der Arbeitskosten ist. Betont wird die Realität, dass das Ziel nicht darin besteht, die Produktivität zu steigern, sondern Kosten zu senken
LLMs sind nützlich, um Fähigkeiten wie bei LeetCode zu üben. Man kann mit Gemini 2.5 Pro in AI Studio LeetCode-Probleme lösen und sich zu Verbesserungsmöglichkeiten anleiten lassen
Mit Claude lässt sich Hilfe bei der Erkundung von Ideen und beim Aufdecken logischer Schwachstellen bekommen. Im schlechtesten Fall ist Claude ein plausibler Ratgeber, im besten Fall ein Detektiv
Das Beispiel, keine Papierkarte benutzen zu können, zeigt, wie technologische Veränderungen individuelle Fähigkeiten beeinflussen. Wenn GPS nicht funktioniert, ist die Aussicht besorgniserregend, nur schwer eine Papierkarte finden zu können
Neben Kompetenzabbau besteht auch das Risiko einer Homogenisierung menschlichen Wissens. Der von LLMs verstärkte „gesunde Menschenverstand“ könnte lokale Probleme durch allgemeine Standardlösungen ersetzen
Ohne sich auf externe Werkzeuge zu verlassen, das Netzwerk abzuschalten und zu coden oder Dokumente zu schreiben, ist ein guter Weg, die eigenen Denkfähigkeiten zu überprüfen. Die Entscheidung zum Ruhestand fiel, weil es unerträglich wurde, nur noch die Ideen anderer zu wiederholen, statt kreativ zu denken
Der durchschnittliche IQ könnte in den nächsten zehn Jahren um mehr als 10 Punkte sinken, aber alle werden behaupten, ihre Produktivität sei dank KI-generierter Blogposts gestiegen