Der Westen hat verlernt, Dinge herzustellen – und verlernt jetzt den Code
(techtrenches.dev)- Der Zusammenbruch der Verteidigungsproduktionskapazitäten zeigt: Wenn erfahrene Fachkräfte in Rente gehen und Prozesswissen verschwindet, lässt sich die Produktion selbst bei Kriegsnachfrage nicht schnell wieder hochfahren
- Die Fälle Stinger, 155-mm-Granaten und die Wiederherstellung von Fogbank zeigen, dass Kostenoptimierung und Single Points of Failure zwar die Effizienz in Friedenszeiten erhöhten, die Puffer in der Lieferkette und die Wiederherstellungsgeschwindigkeit aber stark schwächten
- Auch die Softwarebranche bewegt sich entlang eines Pfads, auf dem man sich auf billigere Ersatzlösungen stützt und damit die Talent-Pipeline schwächt; nach der Einführung von AI nehmen zugleich weniger Junior-Einstellungen und ein wachsender Review-Bottleneck zu
- Können lässt sich nicht schnell nur mit Geld aufbauen; sowohl in der Rüstungsindustrie als auch in der Software erfordert die Akkumulation von Wissen und Erfahrung jahrelange Praxiserfahrung und Review-Kompetenz
- Wenn Juniors formative Fehler und Debugging nicht durchlaufen, sammelt sich kein implizites Wissen an, wodurch langfristig das Risiko wächst, dass Senior Engineers und institutional knowledge fehlen
Die Parallelen zwischen dem Zusammenbruch von Verteidigungsproduktionskapazitäten und dem Abbau von Softwarepersonal
- Raytheon musste zur Wiederaufnahme der Stinger-Produktion Ingenieure in ihren 70ern zurückholen und den Prozess anhand alter Papierzeichnungen und eingelagerten Testequipments wiederbeleben
- Nachdem das Pentagon 20 Jahre lang keine neuen Stinger gekauft hatte, stieg die Nachfrage durch den Krieg in der Ukraine sprunghaft an; die Produktionslinie war jedoch geschlossen, elektronische Bauteile und der Seeker waren abgekündigt, und selbst Bestellungen vom Mai 2022 sollen erst 2026 geliefert werden
- Innerhalb von nur 10 Kriegsmonaten war ein Stinger-Produktionsvolumen von 13 Jahren aufgebraucht; das bereits verschwundene Produktionswissen und die Personallücken wurden zum Flaschenhals
- Nicht einfach das Budget, sondern die Struktur, in der erfahrene Fachkräfte im Ruhestand ausschieden, ohne dass Ersatz nachrückte, wirkte als zentrales Hindernis
Die beim Hochfahren der Munitionsproduktion sichtbar gewordene Verwundbarkeit der Lieferkette
-
Das Versprechen von 1 Million Schuss und die tatsächliche Produktionsfähigkeit
- Die EU versprach im März 2023, die Ukraine innerhalb von 12 Monaten mit 1 Million Artilleriegranaten zu versorgen, doch Europas jährliche Produktionskapazität lag bei etwa 230.000 Schuss, während die Ukraine täglich 5.000 bis 7.000 Schuss verbrauchte
- Bis zum Stichtag lieferte Europa nur etwa die Hälfte; eine Recherche von 11 Medien in 9 Ländern kam zu dem Ergebnis, dass die reale Produktionskapazität nur etwa ein Drittel der offiziell von der EU behaupteten Werte betrug
- Der Zeitpunkt für das Erreichen von 1 Million Schuss verschob sich auf Dezember 2024 und lag damit 9 Monate hinter dem ursprünglichen Versprechen
-
Eine Struktur, in der sich mehrere Flaschenhälse gleichzeitig überlagerten
- Frankreich stellte 2007 die heimische Treibmittelproduktion ein; danach stand sie 17 Jahre still
- Europas wichtigste TNT-Produktion befand sich nur noch an einem Standort in Polen, und Deutschlands Munitionsvorräte reichten nur für zwei Tage
- Das Werk von Nammo in Dänemark war 2020 geschlossen worden und musste praktisch von Grund auf neu gestartet werden
- Europas Rüstungsindustrie war auf kleine Stückzahlen teurer kundenspezifischer Produkte optimiert und nicht für Massenproduktion oder Krisenreaktion ausgelegt
-
Die USA haben ähnliche Schwächen
- Auch die USA waren von einem einzigen Werk in Scranton und einer einzigen Explosivstoff-Befüllungsanlage in Iowa abhängig; die heimische TNT-Produktion war seit 1986 unterbrochen
- Trotz Investitionen in Milliardenhöhe liegt die Produktionsmenge noch immer nicht einmal bei der Hälfte des Ziels
Durch Kostenoptimierung entstandene Single Points of Failure
- 1993 gab das Pentagon den CEOs der Rüstungsindustrie die Botschaft, dass nur überlebt, wer konsolidiert; danach schrumpfte die Zahl der 51 großen Rüstungsunternehmen auf 5
- Die Zahl der Lieferanten für taktische Raketen sank von 13 auf 3, die der Schiffbauer von 8 auf 2, und die Belegschaft fiel von 3,2 Millionen auf 1,1 Millionen – ein Rückgang um 65 %
- Über die gesamte Munitionslieferkette hinweg entstanden single points of failure; die Fertigung von 155-mm-Granatenkörpern konzentrierte sich auf einen einzigen Anbieter in Coachella, Kalifornien
- Auch die Treibladung war von einer einzelnen Anlage in Kanada abhängig; die auf minimale Kosten ausgerichtete Optimierung erhöhte die Effizienz in Friedenszeiten, ließ aber bei Nachfragespitzen kaum Reserven übrig
Wenn Wissen verschwindet, verlangsamt sich auch die Wiederherstellung
-
Das Scheitern bei der Wiederherstellung von Fogbank
- Fogbank ist ein geheimer Stoff für Nuklearsprengköpfe, der von 1975 bis 1989 produziert wurde, bevor die Anlage geschlossen wurde
- Als man ihn 2000 für ein Lebensdauerverlängerungsprogramm erneut herstellen wollte, waren die meisten Fachleute mit Produktions-Know-how bereits in Rente, verstorben oder hatten die Behörde verlassen, und es gab kaum Aufzeichnungen
- Laut GAO-bezogenem Material waren zusätzliche 69 Millionen Dollar und mehrere Jahre Reverse Engineering nötig, um wieder produzierbares Fogbank zu erhalten
-
Nicht dokumentiertes implizites Wissen war entscheidend
- Das neu produzierte Fogbank war zu rein, und erst spät wurde klar, dass unbeabsichtigte Verunreinigungen in den ursprünglichen Chargen für die tatsächliche Funktion wichtig waren
- Diese Information stand in keinem Dokument; sie war nur den ursprünglichen Produktionsmitarbeitern bekannt, die bereits im Ruhestand waren
- Dass man nicht einmal einen selbst entwickelten Stoff reproduzieren konnte, lag daran, dass das Wissen nur in Menschen weiterlebte
Auch Software bewegt sich auf demselben Pfad
-
Billige und schnelle Ersatzlösungen schwächen die Talent-Pipeline
- Das Muster, über Jahrzehnte aufgebaute Fähigkeiten durch billigere Ersatzlösungen zu ersetzen, die menschliche Talent-Pipeline zu schwächen und dann in der Krise genau diese abgebauten Fähigkeiten wieder zu benötigen, zeigt sich sowohl in der Rüstungsindustrie als auch in der Software
- Wenn dieser Ersatz in der Rüstungsindustrie die peace dividend war, dann nimmt im Softwarebereich AI diese Rolle ein
- Die bereits sichtbare Erosion der Talent-Pipeline und die Krise des Verständnisses zeigen zusammen mit den Rüstungsbeispielen auch, wie lang der Wiederaufbau dauert
-
Für den Wiederaufbau braucht es mehr Zeit als Geld
- Ein Hochfahren wichtiger Rüstungsproduktion dauerte bei einfachen Systemen 3 bis 5 Jahre, bei komplexen Systemen 5 bis 10 Jahre
- Beim Stinger liegen zwischen Bestellung und Lieferung mindestens 30 Monate, beim Javelin dauerte es viereinhalb Jahre, um die Produktionsmenge nicht einmal zu verdoppeln, und bei 155-mm-Granaten bleibt man trotz 5 Milliarden Dollar Einsatz auch im vierten Jahr unter dem Ziel
- Auch Frankreich brauchte 17 Jahre bis zur Wiederaufnahme der Treibmittelproduktion; die Begrenzung lag weniger beim Geld als bei Wissen und Erfahrung
- Eine RAND-Studie schätzte, dass 10 % der Fähigkeiten im U-Boot-Design selbst nach einer Promotion noch 10 Jahre Praxiserfahrung erfordern; auch qualifizierte Tätigkeiten in der Rüstungsindustrie verlangten 2 bis 4 Jahre Ausbildung plus 5 bis 8 Jahre bis zur Aufsichtskompetenz
-
Auch die Wachstumskurve in der Software lässt sich nicht komprimieren
- Bis ein Junior Developer ein stabiler Mid-Level wird, vergehen 3 bis 5 Jahre, bis zum Senior 5 bis 8 Jahre und bis zu Principal oder Architect mehr als 10 Jahre
- Diese Zeit lässt sich nicht einfach durch mehr Geld verkürzen und scheint sich auch mit AI nur schwer komprimieren zu lassen
Flaschenhälse und Erosion von Können nach der Einführung von AI
-
Der Review-Flaschenhals wächst stärker als die Produktionsgeschwindigkeit
- In einem randomisierten kontrollierten Experiment von METR brauchten erfahrene Entwickler mit AI-Coding-Tools für reale Open-Source-Arbeit sogar 19 % länger
- Vor dem Start war erwartet worden, dass AI die Arbeit um 24 % beschleunigen würde, doch die Differenz zum tatsächlichen Ergebnis betrug 43 Prozentpunkte
- In Folgeexperimenten war der Anteil der Entwickler, die ohne AI nicht mitarbeiten wollten, ebenfalls nicht klein; selbst die Vorstellung einer Rückkehr zu Arbeit ohne AI scheint nicht leicht zu sein
-
Weniger Einstellungen und sinkende Hochschulanmeldungen
- Salesforce erklärte, 2025 keine zusätzlichen Software Engineers einzustellen
- In einer LeadDev-Umfrage meinten 54 % der Engineering-Leader, AI copilots würden langfristig die Einstellung von Juniors verringern
- Laut einer CRA-Erhebung meldeten 62 % der Hochschulprogramme in Computing in diesem Jahr rückläufige Einschreibungen
-
Code Review wird zur zentralen Einschränkung
- AI erzeugt Code schnell, aber menschliche Reviews verlaufen langsam, wodurch ein review bottleneck entsteht
- Als Reaktion darauf lässt man nicht einfach AI den Code von AI prüfen, sondern verlangt in Pull-Request-Templates zwingend Änderungen, Gründe für die Änderungen, die Art der Änderung sowie Vorher-/Nachher-Screenshots
- Es werden auch projektbezogene feste Reviewer ergänzt, um mit mehr Augen die Punkte zu finden, die das Modell übersehen hat
Fähigkeiten, die künftig fehlen werden
-
Ein Umfeld, in dem Technik allein nicht mehr reicht
- Heute reicht technische Expertise allein nicht mehr aus; zusätzlich braucht es Urteilsvermögen und Leadership, um Verantwortung zu übernehmen, Trade-offs zu erklären und die selbstsicher vorgetragenen falschen Vorschläge der Maschine zurückzuweisen
- In einer jüngsten Einstellung wurden von 2.253 Bewerbern 2.069 abgelehnt und nur 4 eingestellt; die Konversionsrate lag bei 0,18 %
- Das zeigt die Realität, dass auf dem Markt kaum Talente vorhanden sind, die neben technischer Stärke auch das Urteilsvermögen zur Erkennung von AI-Fehlern mitbringen
-
Dokumentation allein schließt Wissensweitergabe nicht ab
- Es wird breit dokumentiert – von Site Books und SDDs bis zu RVS-Berichten und Boilerplate-Modulen mit vollständiger Coverage
- Derzeit funktioniert das, weil die Menschen, die diese Dokumentation lesen, über Engineering-Expertise verfügen; ob das weiterhin so bleibt, wenn diese Expertise verschwindet, ist ungewiss
- Wie leistungsfähig Modelle 2031 sein werden, lässt sich nicht vorhersagen, und es ist auch nicht sicher, dass AI dann gut genug ist, um weniger Probleme zu verursachen
-
Krisen kommen unangekündigt, und Seniors entstehen nicht sofort
- So wie kaum jemand erwartet hatte, dass 2022 in Europa wieder ein großflächiger Krieg ausbrechen würde, halten sich Krisen nicht an Zeitpläne
- In 5 bis 10 Jahren werden Senior Engineers gebraucht, die das Gesamtsystem verstehen, um 2 Uhr morgens verteilte Ausfälle debuggen und auch das institutional knowledge außerhalb der Codebase tragen können
- Doch genau diese Kräfte werden derzeit nicht aufgebaut, und Juniors, die lernen müssten, werden entweder nicht eingestellt oder entwickeln die vom DoD-finanzierten Forschungsumfeld so genannte AI-mediated competence
- Die Fähigkeit, Prompts an AI zu geben, mag bleiben, doch die Fähigkeit, die Stellen zu erkennen, an denen AI falsch liegt, wächst womöglich nicht mit
Das Risiko, zum Fogbank des Codes zu werden
- Wenn Juniors Debugging und formative Fehler überspringen, sammelt sich kein implizites Wissen an, und wenn die aktuelle Generation von Engineers in Rente geht, wird dieses Wissen nicht auf AI übertragen
- Das Ergebnis kann sein, dass Wissen schlicht verschwindet – strukturell dasselbe, was bei Fogbank geschah
- Der Krieg in der Ukraine war der Moment, in dem die Fehlschläge der Optimierung in der Rüstungsindustrie reale Kosten verursachten; Stinger, Javelin, Fogbank und die nicht produzierbare Million Artilleriegranaten zeigen diesen Preis
- Auch Software Engineering setzt auf dieselbe Optimierung; wenn AI gut genug wird, könnte diese Wette aufgehen – wenn nicht, könnte dieselbe Rechnung zurückkommen
1 Kommentare
Hacker-News-Kommentare
Das eigentliche Problem ist nicht KI an sich
Problematisch ist eine Managementlogik, die Menschen und Organisationen jeden Spielraum nimmt, weil sie keinen sofortigen Gewinn erzeugen, und dann glaubt, das Wissen werde später bei Bedarf schon noch vorhanden sein
Kurzfristige Kostensenkung bedeutet weniger Junior-Einstellungen und auch weniger Zeit für erfahrene Engineers, Wissen weiterzugeben, wodurch die Weitergabe impliziten Wissens abreißt
Am Ende bleiben nur Dokumentation und Automatisierung, aber Dokumentation ist keine Praxiserfahrung und Automatisierung ersetzt kein Urteilsvermögen
Wenn die Leute verschwinden, die Systeme tatsächlich selbst betrieben haben, verschwindet auch das implizite Wissen aus der Organisation, und am Ende sinkt die Produktivität
KI wird gerade nach demselben Muster verkauft, und in vielen Bereichen wirkt es eher wie Personalabbau als wie echte Produktivitätssteigerung
Das erinnert an die Denkweise bei GE, wo die Fixierung auf Quartalszahlen und Shareholder-Returns langfristige Fähigkeiten ausgehöhlt hat
Entscheidungsträger, die weit von echter Engineering-Arbeit entfernt sind, glauben, implizites Wissen lasse sich durch Tools, Prozesse und Dokumente ersetzen, aber das stimmt nicht
Wenn man Menschen und Lernpipelines abschafft, bleibt das Wissen nicht in der Organisation, sondern verschwindet
Es gibt keinerlei Puffer mehr für Experimente, Reparaturen oder das Abfedern von Schocks, und ich würde sagen, 90 % der heute kaputten Systeme sind genau deshalb kaputt, weil ihnen der slack fehlt, um kurzfristige Belastungen aufzufangen
In Startup-Projekten muss man von Anfang an ständig Neues bauen, deshalb schafft zusätzliche Funktionalität dort direkt Wert, aber Unternehmen wie Visa, Salesforce oder LinkedIn haben oft bereits genug Produkt, Features und Ressourcen
Solche Firmen suchen dann oft krampfhaft nach Nägeln für den Hammer write more software
Auch wenn es viele Wunschlisten und A/B-Test-Systeme gibt: Wenn zusätzliche Software dort wirklich klar in Geld umzusetzen wäre, hätten sie es wahrscheinlich längst getan
Echtes Wachstum und neue Nachfrage entstehen eher außerhalb solcher Firmen, und gerade Unternehmen, die Software nicht selbst bauen oder einkaufen können, haben womöglich eher Chancen
Der Kernpunkt ist dabei fungibility
Humankapital ist keine Ware, die man einfach neu verpacken kann, sondern etwas Lebendiges, und wenn die Pipeline für Talente und Fähigkeiten unterbrochen wird, kann sie schlicht verschwinden
Die Gefahr von KI-Coding besteht auch darin, dass es nur vorhandenes Humankapital ausbeutet, aber kein neues Humankapital für die Zukunft aufbaut
Ein großer Teil meines Systemwissens lässt sich durchaus dokumentieren, und theoretisch könnte jemand Neues die Verantwortung allein anhand dieser Dokumentation übernehmen
Das Problem ist nur, dass die nötige Menge an Dokumentation absurd groß wäre
Selbst bei kleinen Systemen halte ich zigtausende dicht beschriebene A4-Seiten für realistisch
Die neue Person müsste praktisch fast alles davon verinnerlichen, und Unternehmen wollen weder für das Schreiben solcher Dokumentation noch für die Einarbeitung neuer Leute Geld ausgeben
Nach meiner Erfahrung scheitert es also nicht am Prinzip, sondern an den Kosten
Wir schaffen uns nach und nach die Gründe, mit anderen Menschen zu sprechen, ab
In dem Moment, in dem man eine KI fragt, verschwindet eine menschliche Interaktion, die man sonst vielleicht mit einem Kollegen gehabt hätte
Das ist kein reines Coding-Problem; wenn man ständig ChatGPT in der Tasche hat, fragt man sich, welche sozialen Interaktionen dadurch ersetzt werden
Menschen sind im Kern soziale Wesen, und doch optimieren wir die Sozialisierung immer weiter weg
Ich selbst bin davon auch nicht frei, weil ich inzwischen eher Doordash nutze, statt wie früher im Restaurant anzurufen
In einer idealen Welt sollten Unternehmen mittel- und kurzfristige Gewinne optimieren, Regierungen langfristige Interessen und Einzelne ihr gesamtes Leben
Wenn Unternehmen jeden slack herauskürzen und alles maximal straff fahren, müsste der Staat durch Regulierung diese Puffer und den Zufluss von Talenten sichern, um nationale Fähigkeiten zu erhalten
Im Westen scheint es aber so zu sein, dass Lobbygruppen und MBAs die Unternehmen dominieren und selbst Regierungen in Richtung nur Geld optimieren ziehen
Ich programmiere jeden Tag ohne Coding-Assistenten, weil ich glaube, dass man sonst das händische Gefühl selbst für Kleinigkeiten verliert
Der Hauptgrund, warum ich keine KI nutze, ist, dass ich vor dem Bildschirm möglichst von nichts abhängig sein will
Dokumentation, Bücher und Stack Overflow nehme ich davon natürlich aus
Ich sehe oft Leute um mich herum, die selbst triviale Alltagsaufgaben komplett an KI abgeben, und das wirkt auf mich ziemlich beängstigend, weil damit der eigene Denkaufwand extrem sinkt
Diesen mentalen Aufwand abzugeben, ist keine Kleinigkeit
Für mich fühlt es sich so an, als würde man in dem Moment zu einem abhängigen Zombie, und ich glaube, Wissen entsteht fast täglich aus wiederholtem Versuch und Irrtum
Technologie hat immer wieder gezeigt, dass sie Menschen schieben und steuern kann, und KI-Abhängigkeit wirkt wie die Endform davon, in der Unternehmen sogar in die feinste menschliche Fähigkeit eindringen: die Kraft, zu denken und neugierig zu sein
Die meiste Zeit war ich verwirrt und frustriert, und nach fast sieben Stunden Ringen mit dem Problem war die Aufgabe endlich erledigt
Aber gerade diese Schwierigkeit hat mich schockiert, sodass ich mich schon fragte, ob mein Gehirn davon etwas verrottet ist, weil ich es nicht mehr genutzt hatte
Dann fiel mir ein, dass es früher beim Lösen neuer Probleme immer genau so schwer war
Sich mit einem völlig neuen Problem auseinanderzusetzen, ist von Natur aus so schwierig; ich war dieses Gefühl nur nicht mehr gewohnt
Wenn man sich an Schwierigkeiten gewöhnt, fühlen sie sich normal an, und wenn man sich an einen Zustand ohne Schwierigkeiten gewöhnt, wirkt es überwältigend und seltsam, wenn man wieder damit konfrontiert wird
Deshalb halte ich die Fähigkeit, Unbehagen und Schwierigkeit auszuhalten, für einen Muskel, den man unbedingt erhalten muss
Ein echtes Problem war das eigentlich nur, als ich den Job wechselte und für Interviews Code auf einer Plattform ohne Syntaxprüfung oder Autovervollständigung schreiben musste; deshalb habe ich vorher in so einer Umgebung geübt
Im Arbeitsalltag war die Abhängigkeit von Syntax-Autovervollständigung nie ein großes Problem, wichtig waren eher die Kernkonzepte der Sprache und das Verständnis der Runtime
Zum Beispiel ist es wichtiger zu verstehen, wie der event loop in Node.js funktioniert und wie man asynchrone, ereignisgesteuerte Programme schreibt
Von dem Code, den ich in den letzten sechs Monaten ausgeliefert habe, habe ich praktisch kaum eine Zeile selbst gelesen
Trotzdem ist diese Arbeitsweise viel anstrengender
Beim händischen Coden war das Lösen eines Problems wie ein Puzzle, und danach gab es eine Befriedigungsschleife samt Dopaminbelohnung
Jetzt fühlt sich der Großteil meines Tages nicht mehr wie der eines Problemlösers an, sondern eher wie der eines QA-Mitarbeiters, und das ist extrem zermürbend
Selbst wenn die KI die schwierigen Probleme löst, ist die Befriedigung durch den LLM-Spielautomaten viel schwächer, als wenn ich es selbst gelöst habe
An den anderen zwei Tagen verwende ich keinen Coding-Assistenten und lasse erst nach Abschluss die Ergebnisse überprüfen
Ich denke, das ist gut für die psychische Gesundheit und hält zugleich die eigene Schärfe erhalten
Selbst bei Sprachen, die ich ziemlich gut konnte, verschwimmen die mechanischen Teile sehr schnell
Deshalb fühlt sich LLM-unterstütztes Arbeiten für mein Gehirn an, als würde man Bleichmittel hineinschütten
Je mehr ich es benutze, desto schlechter ist es für mich, das kann ich an mir selbst spüren
Das Strukturieren des Nötigen und das Lösen von Problemen funktionieren weiterhin gut, aber die eigentlichen nuts and bolts verflüchtigen sich schnell
Der Satz Geld war nicht die Einschränkung. Wissen war die Einschränkung wirkt ironisch
Denn der Text selbst liest sich so sehr nach KI-generiertem Stil, dass er schwer zu lesen ist
Der Fluss wirkt unnatürlich und abgehackt und ist voller typischer LLM-Manierismen
Auch Schreibfähigkeit ist letztlich eine Fähigkeit, die verkümmern kann
Ich kann nachvollziehen, KI wegen sprachlicher Flüssigkeit zu nutzen, aber ich finde KI-Übersetzung immer noch besser als direkt generierten Text
Wenn einem das Thema nicht einmal wichtig genug ist, um es selbst zu schreiben, sehe ich nicht ganz, warum ich es lesen sollte
Für mich unterscheiden sich Code und Prosa im Kern nicht so stark
Beides besteht aus Schlüsselwörtern, Grammatik, Syntax und sinnvollen Kombinationen
Wenn KI-generierte Sätze bedeutungslos oder schwer lesbar sind, dann müsste nach derselben Logik auch KI-generierter Code schwer lesbar und kaum vertrauenswürdig sein
Mit diesem Doppelstandard sollte man langsam aufhören
Im Gegenteil, es war viel besser als der KI-Mülltext, den auf HN oft alle einfach durchwinken
Deshalb könnten einige Merkmale, die Menschen heute für typisch LLM halten, in Wirklichkeit einfach Schreibweisen sein, die Menschen zuerst verwendet haben und die nun von Menschen wiederholt werden
Ich scrolle täglich an mehreren KI-generierten Texten vorbei, die oben in Websuchergebnissen auftauchen, aber dieser Text wirkte auf mich doch ziemlich anders als diese Sorte
Ich finde es schwer zu glauben, dass Unternehmen das Erfahrungsniveau von Entwicklern wirklich sauber einschätzen können
Kategorien wie junior, mid, senior oder lead sind eher äußerliche Etiketten, während die Realität ein Kontinuum über mehrere Achsen ist, das durch Trendtechnologien leicht verzerrt wird
Streng genommen kann man meiner Meinung nach auch ohne Anstellung bei einer Firma Entwickler auf Senior-Niveau werden
Entscheidend sind am Ende der Wille, selbst zu lernen und Dinge zu bauen, sowie die investierte Zeit
Was Unternehmen heute oft wirklich wollen, ist weniger reine Entwicklungskompetenz als Erfahrung darin, kaputte Organisationsstrukturen und schlechte Kommunikations- oder Budgetprozesse irgendwie zu umgehen
Ob das dann senior bedeutet oder einfach nur politisch geschickt, weiß ich nicht
Besonders deutlich wird dieses Muster, wenn Software scheitert und die Illusion zusammenbricht
Die einen bekommen ein Problem, lernen selbst, was nötig ist, graben sich in unbekannte Bereiche ein, liefern wiederholt sinnvolle Ergebnisse, kommunizieren mit den richtigen Leuten, teilen Fortschritte mit, helfen im Team und füllen Lücken proaktiv
Der Rest ist einfach der Rest
In den ersten Berufsjahren zeigt sich meist schon recht klar, zu welcher Seite jemand gehört, und die zweite Gruppe in die erste zu verwandeln, ist fast unmöglich
Deshalb kann auch jemand mit 30 Jahren Senior-Erfahrung zur zweiten Gruppe gehören, während eine frisch graduierte Person zur ersten gehören kann
Natürlich gibt es auch Leute, die bei Politik, zwischenmenschlichem Auftreten und Bluffen so gut sind, dass sie für das Management wie die erste Gruppe wirken, in Wirklichkeit aber zur zweiten gehören
Dann geht es allerdings nicht mehr um die Fähigkeit, Software zu bauen
Umgekehrt können Menschen aus der ersten Gruppe unterbewertet werden oder keine Beförderung bekommen, und die Korrelation mit echtem Karriereerfolg ist gar nicht so groß
Man kann sich zwar jedes beliebige Label geben, aber das wirkt etwas seltsam
Freelancer werden nach ihrem Portfolio beurteilt, Computerwissenschaftler in der Forschung nach ihren Veröffentlichungen, OSS-Beitragende nach Umfang und Wirkung ihrer Beiträge
In jedem Fall steht das am Ende in Relation zu dem Aufwand, den man ins Lernen und Bauen gesteckt hat
Unabhängig vom Beschäftigungsstatus wird Expertise aber nicht nur durch Dinge bestimmt, die man aus Büchern lernen kann
Stakeholder-Management oder das Präsentieren von Lösungen lernt man nicht einfach durchs Lesen; dafür braucht es echte Übung und Feedback
Ein Senior Engineer ist nicht nur jemand, der gut Code schreibt, sondern jemand, der über den gesamten SDLC hinweg selbstständig beitragen und anderen helfen kann, und solche Fähigkeiten wachsen in einem professionellen Umfeld deutlich leichter als in Amateurprojekten
Dazu gehören meist soziale und organisatorische Fähigkeiten, und ob es einem gefällt oder nicht, so funktioniert die Welt nun einmal
Gleichzeitig möchte ich so etwas am liebsten gar nicht wissen
Ich will meinen Kopf nicht für irgendwen verbiegen müssen, und in dieser Art von Problemen zu arbeiten, ist reiner Schmerz
Das ist ähnlich wie die Frage, ob man ohne Anstellung als Chirurg ein Senior Surgeon werden kann
Ohne mehrere Jahre tatsächlicher Berufserfahrung wird man nur schwer senior; in diesem Bereich ist Erfahrung fast alles
Das nötige Verständnis lässt sich aus Büchern allein nicht verkörpern, denn Menschen internalisieren Dinge nicht tief genug, wenn sie sie nur lesen oder ansehen
Man muss es selbst tun, damit echtes Lernen entsteht
Fakten und Techniken kann man aus Büchern lernen, aber nur weil man ein Buch über Michelin-Restaurants liest, wird man noch kein Michelin Chef
KI-Codegeneratoren sind wie Trolle
Sie liefern mit großer Selbstsicherheit plausibel klingende, aber teilweise falsche Inhalte, und am Ende muss der Mensch die Fehler herausfischen
Das macht keinen Spaß und erzeugt keinen flow
Ich korrigiere gern die Fehler anderer, und besonders gefällt mir das Gefühl, ein LLM zu schlagen
Mehr noch als in einem klassischen Flow-Zustand konnte ich mich länger konzentrieren, wenn ich ein LLM hartnäckig überwacht habe
Da steckt keine Logik drin, nur Musterwiederholung, und ich verstehe nicht, warum so viele angeblich kluge Engineers darauf hereinfallen
Es ist schon etwas ironisch, dass auch dieser Text selbst ziemlich offensichtlich mit KI-Hilfe entstanden zu sein scheint
Ich kritisiere KI-Unterstützung an sich nicht, aber neben dem Thema des Textes gibt das doch zu denken
Die Leute glauben wohl, sie würden ihren Text damit „polieren“, aber vermutlich wäre er oft besser lesbar gewesen, wenn sie es gelassen hätten
Besonders nervig finde ich derzeit Sätze, in denen statt Kommas ständig Punkte gesetzt werden
My people lived the other side of this equation. Not the factory floor. The receiving end.Das soll wohl Gewicht erzeugen, wird aber selbst dort benutzt, wo es völlig unnötig ist, und klingt dann wie ein Voice-over in einem Actionfilm-Trailer
Es geht mir nicht darum, dass der Einsatz von KI moralisch falsch wäre, aber der LLM-Stil war einfach unglaublich störend
Dazu kommt, dass Leute damit ständig unnötige Länge und Füllmaterial in Texte hineinschreiben, sodass man sich jetzt seitenweise hindurcharbeiten muss
Noch schlimmer ist, dass man kaum noch leicht unterscheiden kann, ob ein Text zumindest auf echter neuer menschlicher Einsicht beruht oder ob einfach alles mit einem Prompt wie write me something about X erzeugt wurde
Auf dem aktuellen Stand ist Letzteres dann fast schon automatisch kaum lesenswert
Für mich hat das etwas von einem Priester, der Homosexualität verurteilt und dann mit einem männlichen Prostituierten im Bett erwischt wird
Ob Kokain im Spiel war, ist optional, aber der Nachgeschmack bleibt bitter
In diesem Text gibt es nicht viele der üblichen offensichtlichen KI-Spuren, und das Einzige, was für mich nach LLM klingt, ist die Struktur aus kurzen, entschiedenen Sätzen
Aber genau dieser Stil gilt im englischsprachigen Raum seit Hemingway durchaus auch als autoritative Schreibweise
Früher waren es doch eher osteuropäische Remote-Vertragsteams, die als billigere Alternative galten, nicht KI, oder?
Es gab von vornherein gar nicht genug Leute
Und auch hier östlich von 15 Grad Ost wurden am Ende alle gemeinsam entlassen
Der eigentliche Plan war wohl eher, allgemein einfach weniger zu tun, solange es nichts mit KI zu tun hatte, und alle warteten nur darauf, wer zuerst mit Entlassungen anfangen würde
Ich habe sechs Monate lang in Teilzeit gearbeitet, und die Entscheidungsträger sagten ganz offen, dass sie das langfristig für besser hielten
Besser als eine Entlassung war es schon, aber auf Dauer konnte ich so nicht leben
Ich lebe sparsam, aber nicht so sparsam
Sie wollen wirklich kein Geld ausgeben, und ganz besonders nicht für Amerikaner und Krankenversicherung
Es wirkt seltsam, dass US-Unternehmen Amerikaner so schnell aus Arbeitsplätzen verdrängen können, ohne dass es nennenswert gebremst wird
Als Europäer habe ich zwar auch osteuropäische Entwickler gesehen, aber sie waren nicht in jeder Firma vertreten, in der ich gearbeitet habe
Indische Arbeitskräfte dagegen waren immer da
Was die Qualität betrifft, war es immer dieselbe Geschichte; ich führe das hier nicht weiter aus, aber wer bereit ist, es anzunehmen, weiß wahrscheinlich schon, worauf ich hinauswill
Wenn ich an die Vorlesung Formal verification in software zurückdenke, die ich Ende der 80er zum ersten Mal hörte, und an den Programming in Java-Kurs, den ich kurz vor meinem Weggang Anfang der 2000er den Erstsemestern überließ, dann fühlt es sich so an, als sei die akademische Strenge von einer Klippe gestürzt und durch Ausrichtung auf Beschäftigungsfähigkeit ersetzt worden
Früher ging es beim Lehren eher darum, wie man denkt; später eher darum, wie man einen gut bezahlten Job bekommt
Weil Unternehmen keine Lust mehr hatten, neue Mitarbeiter selbst auszubilden
Gehälter für Trainees kosten Geld, und auch die Leute, die sie anlernen, kosten Geld, also wurden diese Kosten über Abschlussanforderungen an Universitäten, Studierende und den Staat weitergereicht
Wenn man Beschäftigten direkt sagt, sie sollen als Bedingung für einen Job ihre Ausbildung selbst bezahlen, riecht das nach Betrug, aber beim degree-mill-System drücken erstaunlich viele beide Augen zu
Menschen sind nicht perfekt
Als ich wenige Tage vor der russischen Invasion in die Ukraine reiste, waren Reisen und Hotels in Kyjiw sehr günstig, und wenn man Einheimische fragte, ob eine Invasion bevorstehe, sagten alle das wird nicht passieren
Der Tenor war, Russland rede immer aggressiv, tue es aber nicht wirklich
Man war nicht ausreichend vorbereitet, und das Ergebnis war, dass innerhalb weniger Tage 20 % des Territoriums verloren gingen
Nachdem ich nach Österreich zurückgekehrt war, blieb mir der Gedanke, dass einige der Menschen, denen ich dort begegnet war, inzwischen tot sein könnten
Später war ich als Unternehmer und Engineer auch in Dubai und Saudi-Arabien und fragte dort, was sie tun würden, falls Drohnen ihre Infrastruktur angreifen
Nach dem russischen Krieg und dem ersten Angriff Irans hätte man so etwas klar erwarten können
Trotzdem bekam ich wieder die Antwort: Das wird nicht passieren
Weil man sich nicht richtig vorbereitet hatte, gingen Hunderte Milliarden Dollar verloren, obwohl man es vermutlich mit einigen Hundert Millionen über mehrere Jahre hätte verhindern können
Das Problem ist am Ende nicht KI, sondern der Mensch
Ohne diese Vorbereitung säße heute vermutlich ein russischer Sprecher in Kyjiw
Dass sie die ersten zwei Wochen überstanden hat, war entscheidend für den Übergang in einen langen Krieg, und der Krieg im Donbas lief bereits acht Jahre
Es ist schwer zu behaupten, die Ukrainer hätten sich eingebildet, ihnen stehe nicht Russland gegenüber
Nicht selten haben sie Freunde, die genau diese Aufträge bekommen sollen, und verkaufen die Angst, dass beim Angriff des Gegners sofort die eigene Familie sterben würde
Du hast einfach zwei Fälle herausgegriffen, in denen jemand sagte, etwas werde auf keinen Fall passieren, und es dann doch passierte
Was ist mit all den vielen Fällen, in denen dieselbe Aussage fiel und tatsächlich nichts geschah?
Wenn ich zu Millionen Lottospielern sage, sie würden nicht gewinnen, liege ich bei fast allen richtig
Dass dann einer doch gewinnt, bedeutet nicht, dass meine Vorhersage falsch war; es könnte einfach reporting bias sein
Niemand war sich sicher, dass Putin wirklich so dumm sein würde, aber die ukrainischen Streitkräfte waren mit Verteidigungslinien, Vorräten und Defensivtaktiken für den Ernstfall sehr beschäftigt
Mit jedem Tag scheint mir Peter Naurs programming as theory building wichtiger zu werden
Link: https://gwern.net/doc/cs/algorithm/1985-naur.pdf
Eine Lektüre, die ich sehr empfehlen würde