13 Punkte von flowkater 2026-03-09 | 4 Kommentare | Auf WhatsApp teilen
  • Ein Essay, der aus der Erfahrung eines CTO mit 15 Jahren Berufspraxis hervorgeht und die Debatte über Code-Review im AI-Zeitalter als These–Antithese–Synthese ordnet
  • Code-Review war schon immer ein Problem — es fehlt an Zeit, Menschen und Prozessen
  • AI hat das Produktionsvolumen von Code explodieren lassen, aber die Review-Kapazität ist gleich geblieben → der Engpass wird noch größer

These — Die Notwendigkeit menschlichen Reviews

  • Simon Willison: "Wälze keinen nicht geprüften Code auf deine Mitwirkenden ab"
  • Kent Beck: Je näher die Erzeugungskosten an null rücken, desto stärker verlagert sich der Wert von der Erzeugung zur Verifikation
  • Addy Osmani: "Das ungelöste Problem ist nicht die Erzeugung, sondern die Verifikation"
  • Egal wie gut AI wird, die Verantwortung liegt beim Menschen → man muss verifizieren → man muss reviewen

Antithese — Das Ende des Zeitalters menschlicher Reviews

  • Bryan Finster: Anwendung des Nyquist-Shannon-Theorems — wenn nur die Produktionsfrequenz steigt, die Feedback-Frequenz aber gleich bleibt, wird systematisch übersehen
  • SmartBear-Daten: Ab mehr als 400 Zeilen fällt die Erkennungsrate für Fehler stark ab, AI erzeugt auf einmal 600 Zeilen
  • StrongDM "Software Factory": Menschen schreiben keinen Code und lesen ihn auch nicht. Nur Intentionsdefinition + Kuratierung von Szenarien
  • Stanford CodeX: "Wenn Agenten erstellen und testen, wem kann man dann vertrauen?"
  • Salesforce Prizm: Das diff-zentrierte Review-Modell selbst funktioniert im AI-Zeitalter nicht mehr → Rekonstruktion der Intention

Synthese — Was sollte reviewt werden?

  • latent.space: Code-Review → Wechsel zu Intent Review
  • Die Spezifikation ist die Quelle der Wahrheit, der Code ist das Ergebnis
  • Vertrauen in 5 Schichten aufbauen (Schweizer-Käse-Modell)
  • Qodo-Muster: Kontext zuerst, Schweregrad-basiert, Review durch Experten-Agenten
  • Bryan Finster: Menschliches Blocking ist nur in zwei Fällen nötig — fehlendes Wissen + regulatorischer Pfad

Zum Schluss

  • Der Autor reviewt AI-Code nicht direkt → Wechsel in die Rolle der QA
  • AI-native Engineers = müssen die PM-Rolle der vorherigen Ära selbst übernehmen
  • "Kannst du Verantwortung für deinen Code übernehmen?"

4 Kommentare

 
kgcrom 2026-03-09

https://app.devin.ai/review

Ich weiß noch nicht, ob das wie der Fehler am Zwischenpunkt nur eine weitere vorübergehende Methode ist, aber ich teile hier ein Tool, mit dem man zusammen mit KI PR-Reviews durchführen sowie Code verstehen und Bugs beheben kann.

Ich nutze es bei Side Projects, wenn ich die von der KI vorgenommenen Codeänderungen nicht verstehe.

 
pencil6962 2026-03-09

Fehler des Mittelwegs (Argument to Moderation): Wenn es zwei extreme Behauptungen (A und Z) gibt, ist es der Fehlschluss, einfach anzunehmen, dass der Mittelweg dazwischen (M) die Wahrheit oder die beste Lösung sei.

 
overthinker 2026-03-09

Aus dieser Sicht wird menschliche Prüfung am Ende zum Flaschenhals.

 
vk8520 2026-03-09

Ich denke, halb und halb ist im Moment noch unrealistisch. Code wird dauerhaft weiterverwendet, und weil LLMs probabilistisch sind, muss man den selbst geschriebenen Code (vorerst) immer noch vollständig lesen. Um Reviews zu erleichtern und Kontext sowie Absicht besser zu verstehen, ist es sinnvoll, PRs automatisch als Templates schreiben zu lassen oder sie als ADRs zu verfassen.