17 Punkte von GN⁺ 2025-08-23 | Noch keine Kommentare. | Auf WhatsApp teilen
  • In der Softwarebranche verschärft sich der Burnout unter Engineers, insbesondere weil Junior Engineers AI-Tools missbräuchlich nutzen und dadurch Probleme bei Codequalität und Zusammenarbeit verursachen
  • Feedback von Senior Engineers wird nicht als Lernchance genutzt, sondern als neuer Prompt an die AI weitergereicht, und von „AI geschriebener Code“ verbraucht die Review-Kapazität des gesamten Teams
  • In manchen Organisationen wird von AI erzeugter, unvollständiger Code wie ein „Erfolg“ inszeniert und präsentiert, wodurch eine Atmosphäre entsteht, die AI-Abhängigkeit fördert
  • Der Autor berichtet aus eigener Erfahrung, dass er beim Erhalt von AI-generierten Code-Antworten Unbehagen und Befremden empfand, und kritisiert, dass AI vielmehr die Lern- und Mentoring-Kultur beschädigt
  • Auch das Ökosystem der AI-Startups ist letztlich wegen Unwirtschaftlichkeit, Stromverbrauch und Umweltproblemen nicht nachhaltig, und die aktuelle Lage sei kaum etwas anderes als der Betrug vom „nackten Kaiser

Einleitung: Eine verunsichernde Engineering-Umgebung

  • Unter Engineers hat sich zuletzt das Burnout-Phänomen verschärft
  • In Organisationen wird von Senior Engineers faktisch erwartet, „Vibe-/Meme-basierte Features“ zu prüfen und dazu beizutragen, obwohl sie nicht wirklich funktionieren
  • Meiner Erfahrung nach wollen die besten Engineers neuen Teammitgliedern stets mit großem Engagement helfen, sich weiterzuentwickeln
  • Doch statt dieses Feedback als Wachstumschance zu nutzen, verwenden Junior Developers es nur als den nächsten Prompt für generative AI
  • Tatsächlich habe ich viele Fälle direkt beobachtet, in denen Junior Engineers LLM-Tools (Large Language Models) in einem Ausmaß nutzen, das an Missbrauch grenzt

Reale Fälle in Organisationen: Die Schäden des AI-Missbrauchs

  • Kürzlich sah ich bei einem firmenweiten Town Hall zu, wie Junior Engineers neue Arbeitsergebnisse präsentierten
  • Sie schienen weder den Zweck noch die Funktionsweise der Features richtig zu verstehen
  • Doch in großen Organisationen konzentriert man sich oft darauf, „Erfolg“ zu inszenieren – unabhängig vom tatsächlichen Ergebnis
  • Als ein Senior Manager ihre AI-Nutzung offenlegte, erklärte er selbstbewusst: „Das sind 4.000 Zeilen Code, die Claude geschrieben hat“, und erhielt Applaus
  • Auch ich sollte eine kleine Verbesserung an einer bestehenden Funktion prüfen und bat den Junior Engineer, der den letzten Change gemacht hatte, um Kontext
  • Ich schickte die GitHub-Commit-URL und stellte Fragen, doch vermutlich wurde der Inhalt in ein LLM eingegeben und anschließend die zurückgegebene Antwort einfach kopiert und an mich gesendet
  • Dabei stellte sich bei mir ein eigenartiges Gefühl von Befremden und Unbehagen ein

Die AI-Rutschbahn und die Grenzen von Code Reviews

  • Anhand des Falls eines Freundes wurde deutlich, dass tatsächlich einen Monat lang mehrere Engineers Zeit damit verschwendeten, von einem LLM automatisch erzeugten Code (vibe-coded PRs) zu reviewen und zu mergen
  • Ein anderer Freund schilderte, wie ihn das wiederholte Review von „schlampigem Code“ aus AI-Erzeugung zermürbt hat
  • Dank AI verbessern sich weder Codequalität noch Lernen, stattdessen nimmt nur die monotone Wiederholungsarbeit zu

Der wahre Wert von Entwicklungskultur und menschlichem Wachstum

  • Jeder Engineer wächst Schritt für Schritt dank Kolleginnen, Kollegen und Mentoren
  • Direkt zu lehren und Menschen wachsen zu lassen, ist das Wesen der Software-Engineering-Kultur
  • Doch angesichts einer Realität, in der solche Investitionen sofort als Trainingsdaten für das „neueste Modell“ kopiert werden, stellt sich Ernüchterung ein
  • Daraus ergibt sich die grundsätzliche Frage, ob man dann nicht gleich lieber das Modell statt Junior Engineers trainieren sollte
  • Eine solche Welt ist eine äußerst düstere Vision.

Ein Experiment ohne AI und ein Fazit

  • Ganz konkret wird das Experiment vorgeschlagen: „Hör auf, AI zu benutzen.“
  • Der Autor selbst hat beim jüngsten Zurücksetzen seines Computers sein Claude-Pro-Abonnement gekündigt
  • Einige Suchen, Stack Overflow und das Lesen offizieller Dokumentation führten vielmehr zu deutlich verlässlicheren Schlussfolgerungen
  • Ich kam zu der Überzeugung, dass mein eigenes Urteilsvermögen der Ausgabe eines LLM in Genauigkeit und Verlässlichkeit überlegen ist.

Der wirtschaftliche Wert generativer AI-Tools und ihre grundsätzlichen Grenzen

  • Es wird die Frage gestellt: „Ist AI überhaupt wirklich nützlich?“
  • Objektiv betrachtet gibt es erhebliche Zweifel an ihrem Wert
  • Der typische Ablauf bei AI-Startups sieht so aus:
    • „AI“ wird auf einen bestehenden Bereich angewendet, und unter dem Vorwand von Effizienz entsteht ein neues Startup
    • Das AI-Startup wirbt erfolgreich Venture-Capital-Investitionen ein
    • Es zahlt Nutzungsgebühren an AI-Dienstleister (wie OpenAI)
    • Das AI-Startup selbst erzielt keinen Gewinn
  • Für sich genommen unterscheidet sich dieser Ablauf nicht stark vom bisherigen VC-Ökosystem, doch der entscheidende Unterschied ist, dass selbst die Dienstleister (wie OpenAI) bislang keinen Gewinn erzielen
  • Die Technologie selbst ist inhärent ineffizient und strukturell ungeeignet für massive Skalierung
  • Auch der übermäßige Stromverbrauch und die ökologischen Nebenwirkungen sind ein ernstes Problem

Schlusswort: Die Notwendigkeit, die Realität anzuerkennen

  • Man kann hoffen, dass Moores Gesetz zurückkehrt oder alle reich werden, bevor das Universum auskühlt
  • Doch wenn man der Realität ins Auge sieht, ist das Geschäft mit generativer AI eine Art Illusion und ein Fall vom „nackten Kaiser

Noch keine Kommentare.

Noch keine Kommentare.