Wenn man AI nutzt, lernt man dann weniger?
- Studie von Anthropic: Entwickler, die Coding-Aufgaben mit AI erledigten, erzielten in Quizzen 17 % niedrigere Werte
- Der Kern ist nicht „Wer AI nutzt, lernt weniger“, sondern dass sich die Ergebnisse trotz derselben AI je nach Nutzungsweise drastisch unterschieden
- Wer den Code komplett der AI überließ → am schnellsten fertig, aber am wenigsten gelernt
- Wer nur nach Konzepten fragte und selbst implementierte → machte mehr Fehler, erzielte aber deutlich höhere Quiz-Ergebnisse
Vom Zeitalter des Codelesens zum Zeitalter des Anweisens
- Ben Shoemaker: „Ich lese Code nicht mehr Zeile für Zeile. Ich lese Spezifikationen, Tests und Architektur.“ → ein neuer Ansatz namens Harness Engineering
- OpenAI-Codex-Team: Drei Ingenieure erstellten allein mit Agenten eine Million Zeilen Code und vollendeten ein Produkt, das von Hunderten genutzt wird. Investiert wurde nicht in Code, sondern in Dokumentation, Linter und Test-Infrastruktur
- Evan Armstrong: Codegenerierung ist zur Commodity geworden, aber die „Context Layer“, die Code in Produktion governen, ist keine Commodity geworden
- Steve Yegge: „Die Ära des Handcodings ist vorbei.“ Er beschreibt 8 Stufen der AI-Adoption — ab Level 4 schaut man sich keine Diffs mehr an, auf Level 8 baut man selbst einen Agent-Orchestrator
Das Ziellinien-Spiel und das Zinseszins-Spiel
- Kent Beck: Hinter spezifikationsgetriebener Entwicklung steckt die Annahme eines „Ziellinien-Spiels“ (wenn X erreicht ist, ist es vorbei)
- Reale Softwareentwicklung ist ein „Zinseszins-Spiel“ — die heutige Architektur öffnet oder schließt in sechs Monaten Möglichkeiten
- „Mit einem besseren AGENTS.md kann man das Zinseszins-Spiel nicht gewinnen“ — entscheidend ist, Systeme so zu entwerfen, dass sie sich kumulativ aufbauen
AI ist ein Spiegel
- Jeremy Utley (Stanford): „Wer faul sein will, wird in seiner Faulheit unterstützt; wer schärfer werden will, wird in seiner Schärfe unterstützt“
- Wer einen TDD-/DDD-Hintergrund hat, kann AI entsprechend anleiten; wer nur „Mach einfach mal“ sagt, bekommt strukturell chaotischen Code. Nicht die AI ist dumm — sie ignoriert nur dieselben Punkte, die ich auch nicht beachte
- Berkeley-Studie: AI hat Nicht-Entwicklern das Programmieren ermöglicht, aber am Ende verbrachten Ingenieure mehr Zeit damit, den AI-Code von Kollegen zu reviewen und zu korrigieren
- „Dracula-Effekt“ — bei Vibecoding mit Vollgas liegt die Grenze produktiver Zeit bei etwa 3 Stunden pro Tag
Wie sollte man sie also nutzen?
- „Verlange von der AI nicht die richtige Antwort, sondern führe ein Gespräch.“ Statt der AI Fragen zu stellen, soll die AI mir Fragen stellen
- Spracheingabe empfohlen — Tippen schaltet in den „Keyword-Modus“, Sprache in den „Konversationsmodus“
- Context Engineering: Wenn in
AGENTS.mddie Gründe für Architekturentscheidungen, Konventionen und Domänenbegriffe festgehalten werden, erzeugt die AI konsistenten Code - Kent Beck: „Investiere genauso in Features wie in Futures (die Menge der Dinge, die als Nächstes implementiert werden können)“
Was sich nicht ändert
- Man muss vielleicht nicht mehr jede Codezeile lesen, aber die Fähigkeit, Code lesen zu können, ist noch wichtiger geworden
- Wenn alle Tests bestehen, sich das Produkt aber seltsam verhält, wenn die AI sagt „kein Problem“, aber doch ein Bug da ist — dann kommt am Ende der Moment, in dem man selbst lesen muss
- Lesen zu können und es nicht zu tun, ist etwas völlig anderes, als gar nicht lesen zu können
- Jemand zu sein, der überhaupt etwas hat, das sich im Spiegel zeigen kann — das ist das Wesen eines Ingenieurs in dieser Zeit
Noch keine Kommentare.