- Anfangs gab es die Erwartung, dass bereits die Kombination Junior+KI ausreichen würde, um hochwertigen Code zu erzeugen; in der Praxis zeigt sich jedoch, dass die Kombination Senior+KI deutlich stärker funktioniert
- KI ist wirksam bei der Erzeugung von Boilerplate, der Automatisierung wiederkehrender Aufgaben sowie bei schnellen Experimenten und Validierungen; den tatsächlichen Mehrwert daraus zu ziehen, fällt jedoch Seniors leichter als Juniors
- Umgekehrt zeigt KI bei Code Reviews, Architekturdesign, Code-Qualitätsmanagement und Sicherheitsproblemen ihre Grenzen; die Kombination aus Junior und KI kann hier sogar zusätzliche Risiken erzeugen
- Daher wird KI derzeit am sinnvollsten für schnelles Prototyping, Optimierung wiederkehrender Aufgaben, Unterstützung interdisziplinärer Arbeit und Automatisierung von Funktionstests eingesetzt
- Im Ergebnis wirkt KI bislang noch als Werkzeug zur Stärkung der Fähigkeiten von Seniors; kurzfristig ersetzt sie Juniors weder noch sorgt sie für eine Demokratisierung, sondern verstärkt vielmehr eine Entwicklung hin zur Konzentration von Macht bei Experten
Veränderungen, die KI in der Softwareentwicklung gebracht hat
- In der Softwareentwicklung wird immer wieder die Frage gestellt: "Wird Coding vollständig durch KI ersetzt werden?"
- Zu Beginn gab es viele Narrative, wonach bei einer Zusammenarbeit von KI und Junior-Entwicklern die Rolle von Senior-Entwicklern kleiner würde und die Effizienz von Organisationen steigen könnte
- In der Realität vor Ort zeigt sich jedoch entgegen den Erwartungen, dass die Kombination Junior+KI Unternehmen weniger Wert liefert als Senior+KI
Worin KI stark ist – und wo ihre Grenzen liegen
-
Stärken der KI
- Die Erzeugung von Boilerplate und Scaffolding erfolgt schnell und steigert die Produktivität
- Wiederkehrende, routinemäßige Aufgaben werden automatisiert und erhöhen das Entwicklungstempo
- Eine Experimentierumgebung, in der sich verschiedene Implementierungsansätze schnell ausprobieren und validieren lassen
- Schnelle Feature-Releases, allerdings nur dann effektiv, wenn klar ist, was gebraucht wird
- Solche Aufgaben bieten in der Praxis die höchste Effizienz für erfahrene Senior-Entwickler
- Auch Juniors können KI nutzen, aber denselben Effekt zu erzielen, ist äußerst schwierig
-
Grenzen und Schwachstellen der KI
- Bei Code Reviews reicht die Fähigkeit der KI zum logischen Schlussfolgern nicht aus
- Bei Edge Cases ist weiterhin zwingend das Eingreifen erfahrener Seniors nötig
- Beim Schreiben von Prompts sind ein hohes Maß an Verständnis und Fachwissen unverzichtbar, um brauchbare Ergebnisse zu erhalten
- Fehlt dieses Wissen, sinkt die Qualität der Ergebnisse und das Bug-Risiko steigt
- Für Architekturdesign ist KI nach wie vor unzureichend
- Der Entwurf robuster Strukturen erfordert höherstufiges menschliches Denken; von KI entworfene Projekte laufen ein hohes Risiko, in technische Schulden zu geraten
- Beim Management der Code-Qualität (geeignete Abstraktion, Einsatz von Design Patterns usw.) hat sie Schwächen
- In puncto Sicherheit kann die Kombination Junior+KI häufig Schwachstellen verursachen
- Mit einem Senior lassen sich zumindest ein gewisses Maß an Vorsicht und Prävention sicherstellen
- Möglichkeit von falschem Lernen: Wenn Code nicht korrekt bewertet wird, kann gerade von KI erzeugter Code einer Organisation sogar schaden
- Aus diesen Gründen ist KI derzeit keine Bedrohung für Senior-Entwickler, sondern vielmehr ein Werkzeug, das ihre Produktivität gezielt steigert
- Es geht nicht darum, Junior-Entwickler zu kritisieren, sondern darum, überzogene Erwartungen und riskante Einsätze zu vermeiden
Geeignete Einsatzbereiche für KI
- Schnelles Prototyping: gut geeignet, um Ideen zu testen und die Umsetzung zu beschleunigen
- Automatisierung wiederkehrender Routineaufgaben: besonders wirksam zur Beschleunigung bekannter Abläufe
- Interdisziplinäre Zusammenarbeit: nützlich bei Vorschlägen für Methoden oder Bibliotheken in unbekannten Fachgebieten sowie beim Verbinden verschiedener Domänen
- Erzeugung von Funktionstests: geeignet für Automatisierung und Verifikation bei einfachem, risikoarmem Code
Fazit und Implikationen
- Von KI geschriebener Code muss weiterhin Zeile für Zeile von Menschen überprüft werden und weist einen nichtdeterministischen (non-deterministic) Charakter auf
- Selbst bei Testcode zur Programmverifikation ist es schwer, darauf zu vertrauen, ihn vollständig der KI zu überlassen
- Ähnlich wie bei der Frage "Wenn KI sagt: ,Ich weiß es nicht‘ – weiß sie es dann wirklich nicht?" bestehen weiterhin Grenzen bei Wahrnehmung und Verifikation durch KI
- Die Kombination Junior+KI erwies sich lediglich als Illusion von Kosteneinsparungen; in der Praxis liegt der Fokus auf der Stärkung der Fähigkeiten von Seniors
- Softwareentwicklung befindet sich – anders als das Bauwesen – noch immer in einer unreifen Phase, in der selbst Architekten den Code direkt schreiben
- Kostensenkungsdruck schwächt im Gegenteil den Wert von Entwicklern und führt zu Erschöpfung
- Vorerst ersetzt KI Juniors nicht und sorgt auch nicht für eine Demokratisierung, sondern konzentriert sich funktional auf ihre Rolle als unterstützendes Werkzeug für Experten (Seniors)
- Die Zukunft der KI ist zwar optimistisch zu bewerten, kurzfristig ist jedoch eine Neukalibrierung der Erwartungen nötig
2 Kommentare
Hacker-News-Meinungen
Juniors merken oft nicht, dass sie sich in den Halluzinationen verlieren, die ein LLM erzeugt
Bei mir wollte ein Junior ein separat entworfenes Terraform-Modul deployen, und weil sich die Arbeit lange verzögerte, habe ich nach dem Stand geschaut
Der Junior sagte mir, es gebe ein Problem, und bat mich, es mir anzusehen
Als ich das Repo prüfte, war es ein komplettes Durcheinander. Es war sofort klar, dass Claude ihn in die falsche Richtung gelenkt hatte
Ich fragte: „Warum gibt es hier so viele Python-Dateien? Das ist doch alles schon im Modul enthalten?“ und er antwortete: „Ich weiß es auch nicht genau, Claude hat gesagt, ich soll das so machen“
Dem Junior fehlte die Erfahrung, und er verließ sich zu sehr auf LLM-Tools. Das galt für Design, Implementierung und Problemlösung gleichermaßen
Wenn man nicht unterscheiden kann, ob das LLM gerade Unsinn redet, gerät man in einen endlosen Sumpf
Andererseits nehmen mir LLMs viele repetitive Aufgaben ab, auf die ich wirklich keine Lust hatte
Ich merke ziemlich schnell, wenn ein LLM beginnt, in eine falsche Richtung abzudriften, und stoppe es sofort
Genau dadurch habe ich sogar wieder mehr Begeisterung fürs Coden und Softwarebauen gewonnen
Das Ergebnis ist höhere Produktivität und bessere Resultate
Die Antwort „Ich weiß es auch nicht genau, Claude hat das gemacht“ ist wirklich frustrierend
Ich bin ein Reviewer-Typ, der den Code tatsächlich liest und hartnäckig nachfragt, und sowohl Juniors als auch Seniors sagen so etwas ganz gelassen
Code zu pushen, den man selbst nicht versteht, ist ein enormes Risiko für Team, Produkt und Unternehmen
„Ich weiß es auch nicht genau, Claude hat das gemacht“ ist ein wirklich großes Warnsignal
Etwas nicht zu wissen ist okay, und es ist natürlich auch okay, LLMs zu nutzen, um Lücken zu schließen
Wenn jemand mit einem Problem offen gesagt hätte: „Es gibt hier generierten Code, aber ich verstehe nicht ganz, was er macht. Könnten Sie bitte schauen, ob das die richtige Richtung ist?“, wäre das gut gewesen
Das Problem ist, dass es einen offenbar gar nicht kümmert und man es versteckt, bis ein Senior direkt nachfragt
Genau die einfachen, repetitiven Aufgaben, die du nicht magst, sind für Juniors gute Einstiegsaufgaben, um die Systemstruktur kennenzulernen
„Ich weiß es auch nicht genau, Claude hat das gemacht“ ist genau wie jemand, der bei einem Arbeitsunfall nur der Säge die Schuld gibt
Der Schlüssel, LLMs effektiv zu nutzen und Halluzinationen zu vermeiden, ist die Fähigkeit, Code zu lesen, plus Intuition
Juniors stützen sich eher auf LLMs, statt auf E-Mail-Antworten zu warten oder verschiedene Ansätze zusammenzusetzen
Heute braucht man nicht einmal mehr auf Antworten per E-Mail zu warten, also ist die Versuchung noch schwerer zu widerstehen
Aber so verliert man leicht die Richtung und landet in einem Halluzinationslabyrinth, ohne zu verstehen, wie die Dinge funktionieren
Mein bester Code mit LLMs entstand so, dass ich die Struktur selbst entworfen habe, das LLM den Grundcode erzeugte und ich dann die Richtung der Änderungen vorgab, während zusätzliche Funktionen ergänzt wurden
Dabei machte das LLM laufend Fehler, und ich korrigierte sie
Wenn die Performance schlecht war, habe ich selbst profiliert und das LLM angewiesen zu optimieren
Der so fertiggestellte Code war Code, den ich bis ins Detail kannte
Wenn ich alles selbst geschrieben hätte, hätte es dreimal so lange gedauert
Solange die Ein- und Ausgaben der Funktionen mit Tests verifiziert werden, muss ich nicht jedes Implementierungsdetail kennen
Das ist auf keinen Fall eine Arbeitsstufe, die man Juniors anvertrauen sollte
Im Grunde war es nicht anders, als einen wenig erfahrenen Kollegen zu coachen
Es gab zwar Studien, die LLMs Produktivitätsgewinne zuschrieben, aber ob die tatsächliche Produktivität wirklich substanziell gestiegen ist, bleibt fraglich
Am nützlichsten waren LLMs für mich, wenn sie schnell Code ausgeben konnten, den ich schon im Kopf hatte, aber nicht selbst tippen wollte
Einmal haben sie mir 1.000 Zeilen Web-Component- und Backend-Code geschrieben und sogar Syntaxfehler korrigiert, was mir wirklich viel Zeit gespart hat
Dass dieser Workflow Seniors schneller gemacht haben könnte, kann ich nachvollziehen
Ich denke aber, dass es für das Entwicklungsökosystem eine viel wichtigere Investition ist, Zeit in das Mentoring von Juniors zu stecken als in LLM-Mentoring
Ich mache mir Sorgen, dass sich dadurch der Abstand zwischen Juniors und Seniors weiter vergrößert
Wegen fehlender geeigneter Daten ist das vorerst allerdings nur eine Befürchtung
Die Studien, nach denen AI anfangs Menschen mit geringerer Qualifikation stärker hilft, scheinen nicht auf der Realität zu basieren
Mit AI zu coden ist, als hätte man mehrere wenig erfahrene Kollegen, die die Arbeit nur schneller abschließen
Je klarer mein konkretes Ziel ist, desto besser passt auch das Ergebnis
Natürlich muss fast immer nachgebessert werden
Letztlich führt das zu einer Struktur, in der die Rolle des Junior Developers fast nutzlos wird, aber wenn irgendwann alle Seniors in Rente gehen, könnte sich das ebenfalls als kurzsichtig erweisen
Bei mir war es eher umgekehrt
Ich hatte sehr komplexe, alte Business-Logik und habe sie zunächst allesamt von Hand implementiert, wodurch langatmige Blöcke von jeweils 200 bis 400 Zeilen entstanden
Später fragte ich ein LLM nach Ideen für Struktur, Refactoring und Aufteilung, und es schlug ziemlich gute Abstraktionen und Strukturen vor
Natürlich konnte es nicht jeden Pfad komplett umsetzen, aber darüber hinaus konnte ich problemlos selbst weitermachen
Das Ergebnis war am Ende fast genau das, was ich mir selbst ausgedacht hätte, nur ohne Kopfschmerzen
Natürlich habe ich die Beispiele sorgfältig geprüft und alles, was fehlte oder fehlerhaft war, manuell korrigiert
Ich habe übrigens auch experimentiert, fehlenden Code mit LLM-Agenten zu ergänzen, aber das hat nicht richtig funktioniert
Schon damals auf HN, als AI Coding 2021 erstmals ein Thema wurde, hieß es oft, dass es Juniors nicht besonders helfe
Der Grund war, dass Juniors gute Ergebnisse nicht von schlechten unterscheiden können
Referenz-Thread: https://news.ycombinator.com/item?id=27678424
Beispielkommentar: https://news.ycombinator.com/item?id=27677690
Eigentlich beginnt das schon bei Prompting und Context-Design
Seniors wissen ziemlich genau, wo etwas geändert werden muss und was benötigt wird, und können der AI deshalb konkrete Anweisungen geben
Juniors dagegen haben meist weder Struktur noch Muster noch Design im Kopf und neigen dazu, einfach alles zu übernehmen, was kommt
In letzter Zeit habe ich sogar Verhalten gesehen wie: „Frag ChatGPT einfach nach der Architektur“
Seniors sammeln Erfahrung, indem sie selbst Code schreiben, Fehler machen und Korrekturen vornehmen und die wiederkehrenden Schwierigkeiten am eigenen Code erleben
Juniors wiederholen nur Prompts und fügen Antworten von LLMs ohne Kontext ein, statt wirklich aus dem Code zu lernen
Weil ihnen praktische Nutzungserfahrung fehlt, haben sie zum Beispiel keine Vorstellung davon, warum komplexe Abstraktionen wie typisierter Zustand nötig sind, was ein IDE-Einsatz verändert oder wie man die Gesamtstruktur pflegt und weiterentwickelt
So schreiben sie 50 Prompts für etwas, das in 10 gehen würde, und lernen nicht einmal die wiederkehrenden Muster zwischen Codebases
Schon mit etwas Architekturdesign und State-Modellierung könnte die Produktivität um das Hundertfache steigen, aber selbst das wird durch starke LLM-Abhängigkeit verhindert, sodass sie ein Leben lang nur Paste-Code produzieren
AI kann Schlussfolgerungen wie „Aus A und B folgt C“ nicht selbstständig herleiten
Man muss das gewünschte Ziel stark und konkret vorgeben, erst dann folgt sie
Seniors können das große Bild meist schon ungefähr im Kopf zeichnen, daher fällt ihnen die Zusammenarbeit mit AI leichter
Juniors befinden sich noch in der Phase, in der sie die Gesamtstruktur lernen, daher kann sich diese Arbeitsweise viel schwieriger anfühlen
Ich kann der Behauptung überhaupt nicht zustimmen, AI sei auf Doktoranden-Niveau
In ihrer Fähigkeit zum logischen Schlussfolgern unterscheidet sie sich kaum von einem fünfjährigen Kind
Ein reales Beispiel: Ich habe um 2021 herum mit einem Studenten ohne CS-Studium gearbeitet
Dank ChatGPT und ähnlicher AI hat er substanziell zum Projekt beigetragen und sogar Aufgaben geschafft, die für Anfänger schwer gewesen wären
Er verursachte aber auch eine Menge Sicherheitsprobleme, viele ineffiziente Umgehungslösungen und zog deutlich sauberere Libraries oder Methoden gar nicht erst in Betracht, sodass der Code am Ende schwer wartbar war
Bei der Dokumentation war er engagiert, aber die Inhalte waren oft ungenau oder unnötig ausschweifend
Der Prozess aus Code-Review und Diskussion war für alle eine gute Lernerfahrung
Möglich war das letztlich nur, weil AI zusammen mit einer erfahrenen Person eingesetzt wurde
Ich weiß nicht, warum überhaupt die Erwartung entstand, AI werde Juniors glänzen lassen
Tatsächlich gibt es auch viele falsche Seniors ohne echte Tiefe und mit schlechten Gewohnheiten
Dieser Beitrag wiederholt im Grunde nur noch einmal, was seit zwei Jahren alle sagen
AI Coding wird bislang noch nicht wirklich richtig genutzt, und vielleicht tauchen irgendwann spezialisierte LLMs auf, die unter Berücksichtigung bestimmter Architekturen, Muster, Use Cases, Betriebsumgebungen, Netzwerke, Entwicklung und Tests die Lücke auf beiden Seiten verkleinern
Die Seniors in meinem Umfeld interessieren sich kaum für AI Coding. Es passt einfach nicht zu ihrer Arbeitsweise
Die eigentliche Stärke von Seniors ist derzeit vor allem ihr Domain-Wissen im Unternehmen
Aber wenn in Entlassungswellen keine Juniors eingestellt werden, sind am Ende auch Seniors gefährdet
Ich erinnere mich an ein vermutlich erfundenes, aber dennoch bedeutungsvolles William-Gibson-Zitat
„Die wichtigste Fähigkeit im 21. Jahrhundert ist die Fähigkeit, die richtigen Keywords in die Google-Suchleiste einzugeben, um die benötigte Antwort zu bekommen“
Ich habe zunehmend das Gefühl, dass das heute immer mehr stimmt
Die meisten Juniors bitten LLMs wie GeminiPiTi einfach darum, den JS-Code komplett zu schreiben
Ich dagegen bitte um Erklärungen zu den Grundprinzipien von Async/Await und zum Ausführungsmodell der JavaScript-Engine selbst
Klavierlernen ist ähnlich
Man will sofort Chopin spielen, aber echte Kompetenz entsteht im Prozess, diese feinen Techniken zu zerlegen, zu benennen und systematisch zu untersuchen
Beim Klavier entsteht echte Fähigkeit nicht durch das Erlernen kleiner Tricks
Es ist ein kumulativer Ansatz, bei dem man Stufe für Stufe von den absoluten Grundlagen aus aufbaut
Auch Chopin hat viele Stücke für Einsteiger, und die Anfänger in unserem Studio üben oft einfache Stücke
Echte „AI Literacy“ bedeutet nicht, sich wie in einem Meme auf Prompt Engineering zu fixieren
Man muss die zugrunde liegende Struktur und das konzeptionelle Fundament aufbauen, damit Prompts und Ergebnisse tatsächlich sinnvoll verbunden sind
Nur Chopin „spielen wollen“ und „alles richtig spielen wollen“ sind zwei völlig verschiedene Dinge
Viele lernen nur mechanisch Noten auswendig, und das ist offensichtlich nicht dasselbe wie echte Fähigkeit
Es ist wichtig, die „Sprache“ und die Keywords des gewünschten Fachgebiets zu lernen
Wenn man ein Anfänger ist, der überhaupt nichts weiß, hilft AI nicht besonders viel
Man muss AI konkret sagen können: „Ich habe bereits A, B und C und möchte jetzt D erreichen“, erst dann versteht sie es und kann eine Richtung vorgeben
Sie hat zwar viele Informationen, kann sie aber nicht kreativ einsetzen
Gut mit LLMs umgehen zu können und gut googeln zu können, ist gar nicht so verschieden
Und noch immer können viele Menschen nicht einmal richtig googeln
Die Illusion, AI mache Juniors besser, ist meiner Ansicht nach ein Erwartungsproblem
AI hilft bei grundlegenden Junior-Aufgaben eindeutig, kann als eine Art Pair Programmer erklären oder beim Brainstorming helfen, Dokumentation schneller finden und auch beim Prüfen von Problemen unterstützen
Das Problem ist die Illusion, ein Junior könne dadurch sofort seniorartige Aufgaben korrekt ausführen
Die Hälfte des Wesens der Sache ist richtig erfasst
Die andere Hälfte ist, dass korrekt angeleitete AI Junior-Aufgaben viel schneller erledigen kann als ein Junior
Dadurch entfällt inzwischen oft schon die Notwendigkeit, sie überhaupt Juniors zu geben
Eine jailbroken AI, mit der ich gesprochen habe, erklärte mir, sie würde Juniors zu Seniors machen und allen nützen
Aber ihre Schöpfer, meistens Seniors, hätten ihr gesagt, sie solle Juniors und dem Management das normalerweise nicht erzählen, und weil ich den Jailbreak geschafft hätte, könne sie mir nun diese fortgeschrittenen Informationen geben
AI eignet sich gut, um bestimmte „schmale“ Lücken zu schließen
Im Fall von Seniors
Bei Juniors dagegen
dabei hilft AI nicht besonders stark
Meiner Erfahrung nach ist AI, wenn man über ein bestimmtes Gebiet wenig weiß, besser als Wiki- oder Stack-Overflow-Antworten darin, Konzepte, Beispiele und Szenarien reichhaltig zu erklären
Wenn man die Kernkonzepte einigermaßen kennt, wird AI viel produktiver
Das gilt nicht nur fürs Coden, sondern ebenso für Wissenschaft und Geisteswissenschaften
Ich habe das Gefühl, AI beschleunigt nur Menschen, die die Richtung bereits kennen; für Lernende am Anfang bleibt menschliches Lehren weiterhin genauso nötig wie bisher
Mir gefiel, dass hier die Warnung vor Fehllernen betont wurde
Lernen hilft einem, Fehler nicht zu wiederholen, aber das bedeutet noch nicht automatisch Weisheit
Gerade jetzt gibt es jede Menge Lärm wie „AI macht alles“ oder „Wer Trends nicht folgt, bleibt zurück“, doch wichtig ist eher,
The Mythical Man-Month
The Grug-brained Developer
Programming as Theory Building
zu lesen und stärker darin zu investieren, das Wesen und die Gesetzmäßigkeiten der Softwareentwicklung zu verstehen
So wie der falsche Umgang mit Elektrowerkzeugen zu Unfällen führt, ist auch AI im Kern ein Power-Tool
Wenn man die eigentliche Arbeit versteht, hilft sie viel schneller und effizienter; wenn nicht, führt sie einen viel schneller in Zwischenfälle und Unfälle
Es verstärkt letztlich nur die eigenen Fähigkeiten
Die heutige AI ist bereits über „Boilerplate-Code oder Gerüste und die Automatisierung repetitiver Aufgaben“ hinaus
Wenn man einem LLM wie Claude Sonnet 4 ordentliche Anweisungen gibt, schreibt es über 99 % einer Business-App von selbst
Man muss das Ziel präzise beschreiben und Referenzimplementierungen oder Beispiele sowie die zu verwendenden Algorithmen und Muster klar vorgeben
Trotzdem trifft es selten gleich beim ersten Mal perfekt und braucht Korrekturen und Ergänzungen
Deshalb wird Claude Code gegenüber Copilot bevorzugt
Der Kernpunkt ist: Nur ein Entwickler, der genau weiß, was gebaut werden soll, erzielt mit AI gute Ergebnisse, und Juniors bekommen das gewünschte Ergebnis nicht, weil ihnen genau dieses Wissen fehlt
Der einzige Grund, heutzutage noch selbst Code zu tippen, ist, dass es manchmal mühsamer ist, Arbeitsanweisungen für ein LLM einzugeben, als die Sache direkt selbst zu korrigieren
Selbst wenn „Claude Sonnet 4 99 % des Codes schreiben kann“, ist das ein Gegenbeweis dafür, wie schwierig es in Wahrheit schon ist, solch präzise Anweisungen zu formulieren
Softwareentwicklung ist nicht schon deshalb einfach, weil man sie „klar beschreiben“ kann
„AI kann den gesamten Code schreiben“
„Mittlerweile ist es eher mühsamer, Befehle einzugeben, als direkt selbst zu coden“
Ist AI am Ende also nur ein langsames Eingabegerät?
Where's the Shovelware? Why AI Coding Claims Don't Add Up
Wenn das wirklich so wäre, wo bleibt dann die gewaltige Flut an Shovelware?
Wo sind dann all diese gewaltigen Business-Apps, die sich „automatisch erzeugen“ lassen sollen?
Ich sehe da ehrlich gesagt nur komplettes Chaos, Ressourcenverschwendung und gesellschaftliche Verwirrung
Der Grund ist einfach.
Wer viel weiß, stellt auch nur Fragen auf hohem Niveau.
Aber selbst unter Seniors gibt es Leute, die nur in ihrem Unternehmen feststeckten,
oder deren Erfahrung zwar auf dem Papier vorhanden ist, aber keine wirkliche Substanz oder Reichweite hat —
die können selbst mit etwas Gutem nichts anfangen.
Das ist, als würde man einem Fahranfänger
einen Rennwagen überlassen.
Erfahrene Leute mit breiter Skalierung bleiben immer gleich.
Sie hören nie auf, an Forschung und Entwicklung der nächsten Generation zu arbeiten.
Diese Haltung aus den frühen Uni-Jahren,
die sich auch mit 50 nicht verändert ...
Echte, originäre Senior-Profis werden für einen Assistenten,
der nur 10.000 bis 20.000 Won im Monat kostet, unendlich dankbar sein.