- In der Softwarebranche verschärft sich der Burnout unter Engineers, insbesondere weil Junior Engineers AI-Tools missbräuchlich nutzen und dadurch Probleme bei Codequalität und Zusammenarbeit verursachen
- Feedback von Senior Engineers wird nicht als Lernchance genutzt, sondern als neuer Prompt an die AI weitergereicht, und von „AI geschriebener Code“ verbraucht die Review-Kapazität des gesamten Teams
- In manchen Organisationen wird von AI erzeugter, unvollständiger Code wie ein „Erfolg“ inszeniert und präsentiert, wodurch eine Atmosphäre entsteht, die AI-Abhängigkeit fördert
- Der Autor berichtet aus eigener Erfahrung, dass er beim Erhalt von AI-generierten Code-Antworten Unbehagen und Befremden empfand, und kritisiert, dass AI vielmehr die Lern- und Mentoring-Kultur beschädigt
- Auch das Ökosystem der AI-Startups ist letztlich wegen Unwirtschaftlichkeit, Stromverbrauch und Umweltproblemen nicht nachhaltig, und die aktuelle Lage sei kaum etwas anderes als der Betrug vom „nackten Kaiser“
Einleitung: Eine verunsichernde Engineering-Umgebung
- Unter Engineers hat sich zuletzt das Burnout-Phänomen verschärft
- In Organisationen wird von Senior Engineers faktisch erwartet, „Vibe-/Meme-basierte Features“ zu prüfen und dazu beizutragen, obwohl sie nicht wirklich funktionieren
- Meiner Erfahrung nach wollen die besten Engineers neuen Teammitgliedern stets mit großem Engagement helfen, sich weiterzuentwickeln
- Doch statt dieses Feedback als Wachstumschance zu nutzen, verwenden Junior Developers es nur als den nächsten Prompt für generative AI
- Tatsächlich habe ich viele Fälle direkt beobachtet, in denen Junior Engineers LLM-Tools (Large Language Models) in einem Ausmaß nutzen, das an Missbrauch grenzt
Reale Fälle in Organisationen: Die Schäden des AI-Missbrauchs
- Kürzlich sah ich bei einem firmenweiten Town Hall zu, wie Junior Engineers neue Arbeitsergebnisse präsentierten
- Sie schienen weder den Zweck noch die Funktionsweise der Features richtig zu verstehen
- Doch in großen Organisationen konzentriert man sich oft darauf, „Erfolg“ zu inszenieren – unabhängig vom tatsächlichen Ergebnis
- Als ein Senior Manager ihre AI-Nutzung offenlegte, erklärte er selbstbewusst: „Das sind 4.000 Zeilen Code, die Claude geschrieben hat“, und erhielt Applaus
- Auch ich sollte eine kleine Verbesserung an einer bestehenden Funktion prüfen und bat den Junior Engineer, der den letzten Change gemacht hatte, um Kontext
- Ich schickte die GitHub-Commit-URL und stellte Fragen, doch vermutlich wurde der Inhalt in ein LLM eingegeben und anschließend die zurückgegebene Antwort einfach kopiert und an mich gesendet
- Dabei stellte sich bei mir ein eigenartiges Gefühl von Befremden und Unbehagen ein
Die AI-Rutschbahn und die Grenzen von Code Reviews
- Anhand des Falls eines Freundes wurde deutlich, dass tatsächlich einen Monat lang mehrere Engineers Zeit damit verschwendeten, von einem LLM automatisch erzeugten Code (vibe-coded PRs) zu reviewen und zu mergen
- Ein anderer Freund schilderte, wie ihn das wiederholte Review von „schlampigem Code“ aus AI-Erzeugung zermürbt hat
- Dank AI verbessern sich weder Codequalität noch Lernen, stattdessen nimmt nur die monotone Wiederholungsarbeit zu
Der wahre Wert von Entwicklungskultur und menschlichem Wachstum
- Jeder Engineer wächst Schritt für Schritt dank Kolleginnen, Kollegen und Mentoren
- Direkt zu lehren und Menschen wachsen zu lassen, ist das Wesen der Software-Engineering-Kultur
- Doch angesichts einer Realität, in der solche Investitionen sofort als Trainingsdaten für das „neueste Modell“ kopiert werden, stellt sich Ernüchterung ein
- Daraus ergibt sich die grundsätzliche Frage, ob man dann nicht gleich lieber das Modell statt Junior Engineers trainieren sollte
- Eine solche Welt ist eine äußerst düstere Vision.
Ein Experiment ohne AI und ein Fazit
- Ganz konkret wird das Experiment vorgeschlagen: „Hör auf, AI zu benutzen.“
- Der Autor selbst hat beim jüngsten Zurücksetzen seines Computers sein Claude-Pro-Abonnement gekündigt
- Einige Suchen, Stack Overflow und das Lesen offizieller Dokumentation führten vielmehr zu deutlich verlässlicheren Schlussfolgerungen
- Ich kam zu der Überzeugung, dass mein eigenes Urteilsvermögen der Ausgabe eines LLM in Genauigkeit und Verlässlichkeit überlegen ist.
Der wirtschaftliche Wert generativer AI-Tools und ihre grundsätzlichen Grenzen
- Es wird die Frage gestellt: „Ist AI überhaupt wirklich nützlich?“
- Objektiv betrachtet gibt es erhebliche Zweifel an ihrem Wert
- Der typische Ablauf bei AI-Startups sieht so aus:
- „AI“ wird auf einen bestehenden Bereich angewendet, und unter dem Vorwand von Effizienz entsteht ein neues Startup
- Das AI-Startup wirbt erfolgreich Venture-Capital-Investitionen ein
- Es zahlt Nutzungsgebühren an AI-Dienstleister (wie OpenAI)
- Das AI-Startup selbst erzielt keinen Gewinn
- Für sich genommen unterscheidet sich dieser Ablauf nicht stark vom bisherigen VC-Ökosystem, doch der entscheidende Unterschied ist, dass selbst die Dienstleister (wie OpenAI) bislang keinen Gewinn erzielen
- Die Technologie selbst ist inhärent ineffizient und strukturell ungeeignet für massive Skalierung
- Auch der übermäßige Stromverbrauch und die ökologischen Nebenwirkungen sind ein ernstes Problem
Schlusswort: Die Notwendigkeit, die Realität anzuerkennen
- Man kann hoffen, dass Moores Gesetz zurückkehrt oder alle reich werden, bevor das Universum auskühlt
- Doch wenn man der Realität ins Auge sieht, ist das Geschäft mit generativer AI eine Art Illusion und ein Fall vom „nackten Kaiser“
Noch keine Kommentare.