56 Punkte von flowkater 2026-02-22 | Noch keine Kommentare. | Auf WhatsApp teilen

Wenn man AI nutzt, lernt man dann weniger?

  • Studie von Anthropic: Entwickler, die Coding-Aufgaben mit AI erledigten, erzielten in Quizzen 17 % niedrigere Werte
  • Der Kern ist nicht „Wer AI nutzt, lernt weniger“, sondern dass sich die Ergebnisse trotz derselben AI je nach Nutzungsweise drastisch unterschieden
  • Wer den Code komplett der AI überließ → am schnellsten fertig, aber am wenigsten gelernt
  • Wer nur nach Konzepten fragte und selbst implementierte → machte mehr Fehler, erzielte aber deutlich höhere Quiz-Ergebnisse

Vom Zeitalter des Codelesens zum Zeitalter des Anweisens

  • Ben Shoemaker: „Ich lese Code nicht mehr Zeile für Zeile. Ich lese Spezifikationen, Tests und Architektur.“ → ein neuer Ansatz namens Harness Engineering
  • OpenAI-Codex-Team: Drei Ingenieure erstellten allein mit Agenten eine Million Zeilen Code und vollendeten ein Produkt, das von Hunderten genutzt wird. Investiert wurde nicht in Code, sondern in Dokumentation, Linter und Test-Infrastruktur
  • Evan Armstrong: Codegenerierung ist zur Commodity geworden, aber die „Context Layer“, die Code in Produktion governen, ist keine Commodity geworden
  • Steve Yegge: „Die Ära des Handcodings ist vorbei.“ Er beschreibt 8 Stufen der AI-Adoption — ab Level 4 schaut man sich keine Diffs mehr an, auf Level 8 baut man selbst einen Agent-Orchestrator

Das Ziellinien-Spiel und das Zinseszins-Spiel

  • Kent Beck: Hinter spezifikationsgetriebener Entwicklung steckt die Annahme eines „Ziellinien-Spiels“ (wenn X erreicht ist, ist es vorbei)
  • Reale Softwareentwicklung ist ein „Zinseszins-Spiel“ — die heutige Architektur öffnet oder schließt in sechs Monaten Möglichkeiten
  • „Mit einem besseren AGENTS.md kann man das Zinseszins-Spiel nicht gewinnen“ — entscheidend ist, Systeme so zu entwerfen, dass sie sich kumulativ aufbauen

AI ist ein Spiegel

  • Jeremy Utley (Stanford): „Wer faul sein will, wird in seiner Faulheit unterstützt; wer schärfer werden will, wird in seiner Schärfe unterstützt“
  • Wer einen TDD-/DDD-Hintergrund hat, kann AI entsprechend anleiten; wer nur „Mach einfach mal“ sagt, bekommt strukturell chaotischen Code. Nicht die AI ist dumm — sie ignoriert nur dieselben Punkte, die ich auch nicht beachte
  • Berkeley-Studie: AI hat Nicht-Entwicklern das Programmieren ermöglicht, aber am Ende verbrachten Ingenieure mehr Zeit damit, den AI-Code von Kollegen zu reviewen und zu korrigieren
  • „Dracula-Effekt“ — bei Vibecoding mit Vollgas liegt die Grenze produktiver Zeit bei etwa 3 Stunden pro Tag

Wie sollte man sie also nutzen?

  • „Verlange von der AI nicht die richtige Antwort, sondern führe ein Gespräch.“ Statt der AI Fragen zu stellen, soll die AI mir Fragen stellen
  • Spracheingabe empfohlen — Tippen schaltet in den „Keyword-Modus“, Sprache in den „Konversationsmodus“
  • Context Engineering: Wenn in AGENTS.md die Gründe für Architekturentscheidungen, Konventionen und Domänenbegriffe festgehalten werden, erzeugt die AI konsistenten Code
  • Kent Beck: „Investiere genauso in Features wie in Futures (die Menge der Dinge, die als Nächstes implementiert werden können)“

Was sich nicht ändert

  • Man muss vielleicht nicht mehr jede Codezeile lesen, aber die Fähigkeit, Code lesen zu können, ist noch wichtiger geworden
  • Wenn alle Tests bestehen, sich das Produkt aber seltsam verhält, wenn die AI sagt „kein Problem“, aber doch ein Bug da ist — dann kommt am Ende der Moment, in dem man selbst lesen muss
  • Lesen zu können und es nicht zu tun, ist etwas völlig anderes, als gar nicht lesen zu können
  • Jemand zu sein, der überhaupt etwas hat, das sich im Spiegel zeigen kann — das ist das Wesen eines Ingenieurs in dieser Zeit

Noch keine Kommentare.

Noch keine Kommentare.