1 Punkte von GN⁺ 1 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Schreiben mit KI ist beim Verfassen von Artikeln, Code und Dokumentation eine starke Versuchung, verstärkt aber die Sorge, dass die Fähigkeit zum eigenen Schreiben und Denken nachlässt
  • Wenn man von KI erzeugte Ergebnisse später noch einmal liest, fühlt es sich an, als wäre es „einfach nur KI“, und es transportiert weder den eigenen Ton noch die eigentliche Absicht richtig
  • In den vergangenen 1–2 Jahren wurde beim Programmieren stark auf KI vertraut und fast nur noch Prompts geschrieben, wodurch das Gefühl wächst, vergessen zu haben, wie man selbst Code schreibt
  • Nun wird wieder versucht, von Hand programmieren zu lernen; Menschen, die Code lesen und schreiben können, werden auch nach der KI weiter gebraucht
  • Schon der Impuls, Text in Claude einzufügen und prüfen zu lassen, ist selbst Selbstzweifel – und genau davon lebt KI, weshalb man sich dieser Unsicherheit entgegenstellen muss

Die Sorge, dass KI Schreib- und Programmierfähigkeiten schwächt

  • Schreiben mit KI ist beim Verfassen von Artikeln, Code und Dokumentation äußerst verlockend, vermittelt aber das Gefühl, dass die Fähigkeit zum eigenen Schreiben abnimmt
  • Früher hielt man sich beim Schreiben oder in der Softwareentwicklung zwar nicht für herausragend, aber doch für einigermaßen kompetent; je mehr KI genutzt wird, desto stärker wird das Gefühl, dass die eigenen Fähigkeiten schlechter werden
  • Ergebnisse, die mit KI geschrieben wurden, hinterlassen beim erneuten Lesen den Eindruck: „Das ist einfach KI“, passen weder zum eigenen Ton noch zur eigenen Absicht und bringen nicht richtig auf den Punkt, was man sagen will
  • Diese Sorge verstärkt Selbstzweifel und das Impostor-Syndrom und führt sogar zu der Frage, ob man selbst überhaupt noch in der Lage ist, solche Ergebnisse zu erzeugen

Warum ich wieder von Hand programmieren lernen will

  • In den vergangenen 1–2 Jahren wurde beim Programmieren praktisch vollständig KI genutzt; es wurden fast nur noch Prompts geschrieben, ohne selbst auch nur eine Zeile Code zu verfassen
  • Dadurch entsteht das Gefühl, den Großteil des Programmierens verlernt zu haben, und der Verlust von etwas, das einmal im Zentrum des eigenen Lebens stand, wirkt traurig und deprimierend
  • Jetzt wird wieder eigenständig gelernt, von Hand zu programmieren
  • Auch mit KI werden Fähigkeiten in der Softwareentwicklung nicht vollständig verschwinden
    • Menschen, die Code lesen und schreiben können, werden weiterhin gebraucht
    • Die Zahl der benötigten Personen könnte sinken, aber solche Menschen werden trotzdem weiter notwendig sein
  • Es besteht die Hoffnung, dass KI die seit 20–30 Jahren anhaltende Übernachfrage nach Softwareentwicklern wieder umkehren könnte
    • Wie in Vorlesungen von Robert Martin (Uncle Bob) beschrieben, wurde vor der Zeit, in der Informatik ein Beruf wurde, von Physikern, Mathematikern und anderen Wissenschaftlern programmiert
    • Mit dem starken Anstieg der Nachfrage nach Softwareentwicklern sei die Fachlichkeit verwässert worden
  • Obwohl der Text ohne KI geschrieben wurde, entsteht die Sorge, ob etwas seltsam klingt oder etwas fehlt, und damit der Impuls, ihn in Claude einzufügen und überprüfen zu lassen
  • Schon dieser Impuls selbst ist der Selbstzweifel, von dem KI lebt – und bleibt damit etwas, gegen das man ankämpfen muss

1 Kommentare

 
GN⁺ 1 시간 전
Hacker-News-Kommentare
  • Ich kann dieser Behauptung nicht wirklich zustimmen. Jedes Mal, wenn ich mit AI Code schreibe, kämpfe ich mit diesem unguten Gefühl, dass ich alles durchgehen und mit meinem eigenen Code ergänzen oder korrigieren muss
    Es gibt zwar den Dopamin-Kick, in wenigen Minuten per Vibe Coding eine funktionierende App zu bekommen, aber dieses ungute Gefühl gleicht das wieder aus und wird wohl so schnell nicht verschwinden
    Vermutlich liegt das nur an meiner Erfahrung; als Junior- oder Mid-Level-Entwickler wäre ich vielleicht genauso darauf hereingefallen. Ohne die Narben aus frühen Karrierejahren, als mich erfahrene Mentoren in Code-Reviews ordentlich zurechtgestutzt haben, hätte ich dieses Gefühl wohl auch nicht

    • Meiner Erfahrung nach kann Claude nur Code ausspucken. Egal welches Problem man gibt, es übersetzt alles eher in „mehr Code schreiben“ als in „Code reduzieren“
      Alles, was Claude erzeugt, muss extrem gründlich im Code-Review geprüft werden; sonst wächst die Codebasis immer weiter und nähert sich asymptotisch 100 % technischer Schuld
      Ich reviewe sämtliche Claude-Ausgaben, und bei 90–95 % denke ich nur: „Wow, es funktioniert ja. Aber es ist viel zu viel Code. Lass uns jetzt drei Stunden lang Händchen halten und das verkleinern, bis wirklich nichts mehr übrig ist, das man noch entfernen könnte“
    • „Vibe Coding in ein paar Minuten“ sollte man nicht machen. Das war ein spontaner Witz von irgendwem, aber die Branche hat ihn nicht als Witz verstanden, und manche glauben, das sei tatsächlich eine praktikable Entwicklungsweise, aber das ist es nicht
      Wir müssen bessere Wege der Zusammenarbeit mit Agenten finden. Wenn man die wichtigen Teile, die ein Mensch sehen muss, reviewt und den Rest „auslagert“, kommt man schneller zu Code und Designs, die so funktionieren, wie wenn man selbst programmiert hätte
      Ich reviewe auch etwa 90 % des Codes, den Agenten schreiben, aber ein paar Prompts zu schreiben oder einzusprechen macht viel mehr Spaß, als zigtausend Zeichen selbst zu tippen und ständig zwischen Dateien hin- und herzuspringen. Vielleicht bin ich einfach nur vom Tippen müde
    • Stimme voll zu. Ich nutze AI als Hilfe bei der Spieleentwicklung. Wenn man etwas Neues oder Interessantes machen will, muss man den Code selbst schreiben, sonst beginnt der Leidensweg
      Aber zeitaufwendige und langweilige Fleißarbeit lasse ich nach Entwurf einer klaren Architektur von AI umsetzen. Trotzdem muss ich später noch einmal nachsehen, ob nicht kompletter Unsinn gebaut wurde
      Ein gutes aktuelles Beispiel: In einem Spiel, das ich mit Godot entwickle, wollte Codex etwas von Grund auf neu implementieren, das Area2D bereits bietet
      Sobald man AI etwas Sinnvolles tun lässt, ist alles voller Tretminen und seltsamer Entscheidungen. Vielleicht wäre es anders, wenn ich Hunderte Dollar in Tokens stecken würde, aber bei 10 Dollar im Monat ist mir der Ärger das Geld nicht wert
      Außerdem ist mein Projekt ein Hobby, und Programmieren macht mir immer noch Spaß. Ich lasse AI nur die langweiligen Teile machen wie Speichern/Laden, Parsen von Datendateien oder Einstellungsmenüs, und halte sie von Bereichen fern, in denen menschliches Urteilsvermögen nötig ist
    • Erfahrung ist gerade wirklich wertvoll. Man kann Agenten sehr gut führen, aber wie du gesagt hast, mache ich mir bei Juniors Sorgen
      Ich würde gern glauben, dass ich Agenten genutzt hätte, um tiefer einzusteigen und schneller zu lernen. Früher war es ziemlich mühsam, Lösungen aus Stack Overflow, diversen IRC-Kanälen, Reddit usw. zusammenzubauen
      Andererseits habe ich im Studium auch Hausaufgaben abgeschrieben und die Antworten nicht richtig geprüft, also bin ich mir nicht sicher. Vielleicht wäre es trotzdem anders gewesen, weil ich nicht nur wegen des Abschlusses studiert habe, sondern aus echtem Interesse programmiert habe
      Wie auch immer, ich bin froh, dass ich schon viele Erfahrungen und Fehlschläge gesammelt hatte, bevor das LLM-Zeitalter begann
    • Der Code, den LLMs erzeugen, ist für meinen Maßstab einfach nur durchschnittlich. Ich behaupte nicht, ein Clean-Code-Guru zu sein, aber ich erkenne, ob Code gut strukturiert ist
      Mein eigener Code ist jedes Mal besser als der von Claude oder GPT
      Ich habe einmal aus einem bereits geschriebenen Projekt eine Spezifikation abgeleitet, ein LLM nur anhand dieser Spezifikation alles neu implementieren lassen und dann den Code verglichen; die LLM-Version war zum Kotzen
  • Als Entwickler fühlt sich das alles in gewisser Weise wie Jobsicherheit an
    Ich habe LLMs eine Weile benutzt, sie sind ziemlich gut und ich arbeite auch gern damit. Ich habe ein paar Apps per Vibe Coding gebaut, und es ist ein großer Dopamin-Kick, wenn eine Idee sofort lebendig wird
    Aber meiner Erfahrung nach wird man garantiert gebissen, wenn man ihnen blind vertraut. Selbst in meinen vibe-gecodeten Projekten fügen sie ständig „Features“ hinzu, um die ich nie gebeten habe
    Bei privaten Projekten ist es mir relativ egal, solange das Endergebnis ungefähr dem entspricht, was ich erwartet habe, aber Unternehmen sind nicht so flexibel. Kunden werden es vermutlich auch nicht mögen, wenn sich bei jeder Korrektur oder jedem Update Funktionen ändern oder neue dazukommen
    Zusammengefasst: Viele Firmen bewegen sich in diese Richtung, und ohne ordentliches Engineering kann AI mehr Code schreiben und Apps unbeabsichtigt verändern
    Wegen der Angst vor AI und wegen weniger Einstellungen werden weniger Junior Engineers in den Markt kommen
    Sobald der AI-Einsatz einen kritischen Punkt erreicht, wird es massive Änderungen geben, und die Leute, die das alles nur noch „prompten“, könnten davon überrollt werden
    Es wird mehr Funktionalität geben, die man im Kopf behalten muss. Weil man LLMs nicht zu 100 % vertrauen kann, müssen Entwickler trotzdem genau wissen, was eine Anwendung eigentlich tut
    Am Ende gibt es viele Bugs, und Entwickler beklagen sich, dass sie mehr Leute brauchen. Dann beginnt das Hiring wieder
    Im Moment ist die härteste Position die von Neueinsteigern, und die beste Position scheint die von Leuten zu sein, die bereits im Markt sind

    • Das hat viele Parallelen zum Outsourcing-Boom vor 10–20 Jahren. Kleine, günstige Firmen sahen, dass sie für weniger Geld als für einen US-Entwickler ein komplettes Entwicklerteam in einem anderen Land anheuern konnten, und sind mit hohen Erwartungen und schwachen Prozessen hineingesprungen
      Sie waren fast gar nicht darauf vorbereitet, es erfolgreich zu machen, haben blind die billigste Option engagiert, vage Anforderungen rübergeworfen und dann kaum laufende technische Reviews oder Aufsicht gemacht
      Der Verlauf war ähnlich wie von dir beschrieben. Anfangs sah es nach Erfolg aus, weil schnell Prototypen mit dem vorstellbar schlimmsten Spaghetti-Code hochgezogen wurden, aber mit der Zeit wurden technische Schulden und schlechte Entscheidungen zu immer größerem Widerstand, bis die Entwicklung langsamer wurde und das Projekt schließlich stoppte oder starb
      Diesmal mag es anders sein, aber ein großer Teil meiner frühen Berufsjahre bestand darin, genau solche Projekte aufzuräumen. Ich hoffe, dass neue Entwickler dieselbe Chance bekommen
    • Hoffentlich halte ich lange genug durch, bis der Punkt kommt, an dem es überall Bugs gibt und Entwickler sich darüber beschweren, dass sie mehr Leute brauchen
    • Bei mir ist es fast dieselbe Schlussfolgerung. Ich versuche wirklich, Praktikanten den klassischen Weg beizubringen
    • Dem allgemeinen Gefühl, dass verteilte maßgeschneiderte Lösungen explodieren und gewartet werden müssen und dadurch wieder mehr eingestellt werden könnte, stimme ich zu. Aber ich habe schon zu viel gesehen, um diese Idee schon als wahrscheinlich zu akzeptieren
      Erstens ist der Effizienzgewinn enorm. Größer als bei jedem Tool zu jedem Preis. Das Hauptprodukt unserer Firma ist eine Web-App, und wir arbeiten seit einigen Jahren an einem Rewrite des Kernprodukts
      An einem Nachmittag konnte ich in dem gewünschten Stack ein neues Projekt anlegen und in wenigen Stunden per Vibe Coding ein MVP des Produkts bauen, an dem wir seit Jahren arbeiten
      Es war nicht perfekt, aber ich habe Funktionen einzeln mit kleinen Prompts angefordert, und jede hat 5–10 Minuten gedauert. Es sah ziemlich professionell aus und war nach jedem Maßstab „gut genug“
      Mit etwas mehr Zeit hätte ich vermutlich allein etwas launchen und warten können, für das sonst ein kleines Entwicklerteam mehrere Jahre gebraucht hätte. Leider ist das weniger ein Effizienztool als ein billiger „Ersatz für ein ganzes Team“
      Dazu kommt der AI-Hype bei nichttechnischen CEOs. Unser CEO und die Führungsebene haben Claudes Agenten-Tooling vollständig angenommen und werfen jeden Tag Mockups, Apps und Toolchains zusammen
      Man sieht die Sucht, und sie spüren den Nutzen direkt. Es ist noch nicht passiert, aber ich würde mich nicht wundern, wenn der CEO fast das ganze Entwicklungsteam feuert und mit ein paar erfahrenen Entwicklern die komplette App zusammen vibe-coded
      Im Moment sagen sie noch „AI ist kein Ersatz, sondern ein Multiplikator!“, um im gleichen Atemzug zu sagen: „Wenn wir damit in den nächsten Jahren niemanden einstellen müssen, ist das ein Sieg!“
      Ich wurde direkt gefragt, warum man nicht einfach die ganze App vibe-coden sollte, und ich hatte keine wirklich gute Antwort. Es gibt plausible Argumente wie „Dann weiß niemand, wie man die App wartet“, aber Claude kann schon in den Händen eines einzelnen Entwicklers ziemlich viel leisten
      Man kann zwar sagen „AI verändert die App unbeabsichtigt und baut Bugs ein“, aber mit ausreichender Observability, Tests und ein paar zusätzlichen Prompts lässt sich das in Minuten oder Stunden beheben
      Ehrlich gesagt scheint es immer weniger sinnvoll, dass Unternehmen noch ein komplettes Entwicklungsteam vorhalten. Egal wie viele Projekte man startet und Initiativen anschiebt, die Backlogs schrumpfen schnell und der individuelle Durchsatz pro Entwickler wird absurd groß
      Nichttechnische CEOs interessieren sich nicht für technische Schulden, kognitive Schulden, schlechte Software-Design-Praktiken, das Erlernen des Codens, dafür, Entwickler klug zu halten, die Freude an Problemlösung oder die Kunst guter Algorithmen und Architekturen
      Sie wollen Produkte, die halbwegs gut funktionieren, Wert schaffen, Geld einbringen und mit möglichst geringer Investition auf den Markt kommen. Leider passt AI fast in jeder Hinsicht perfekt auf dieses Raster
      Ich hoffe, dass die riesige Menge neu entstehender Software die Nachfrage erhöht, aber ich fürchte, sie reicht nicht aus, um den gewaltigen Produktionskapazitätszuwachs durch AI auszugleichen
  • Ich habe mir für nächsten Monat Zeit freigeräumt, um TypeScript zu lernen. Dabei will ich AI nicht komplett ausschließen
    Der Plan ist, ein Buch von vorne bis hinten zu lesen und erst danach Code zu schreiben. Ich glaube, ich habe diese Methode in irgendeinem Podcast von Mitchell Hashimoto gehört
    Weil ich wie im Originalpost viel Zeit mit Prompt-Coding verbracht habe, freue ich mich darauf und habe gleichzeitig Angst davor

  • Es ist unmöglich, dass man weniger intelligent wird, nur weil man Code nicht mit der Hand schreibt. Wenn das ginge, müsste man nach jedem Urlaub dümmer sein
    Nur weil man mit einem Chatbot spricht, sterben keine neuronalen Verbindungen im Gehirn ab
    Tatsächlich passiert nur, dass man hochspezialisierte Fähigkeiten vorübergehend ruhen lässt. Jeder Mensch auf der Erde „vergisst“ einen Teil einer Fähigkeit, wenn er sie eine Weile nicht nutzt
    Aber die Information ist nicht weg; sie hat nur eine niedrigere Priorität bekommen, weil gerade relevantere Informationen im Vordergrund stehen. Nach einer kurzen Auffrischung ist sie wieder da
    Schon vor AI hatte ich oft monatelange Abstände, in denen ich in einer von mehreren Sprachen kein vollständiges Programm schrieb. Dann vergaß ich selbst einfache Dinge wie den Anfang einer Funktionsdefinition
    Aber wirklich vergessen war es nicht; ein kurzer Blick auf eine vorhandene Funktion genügte, und ich erinnerte mich wieder an alle anderen möglichen Syntaxformen. Kein Grund zur Panik, dein Gehirn funktioniert ganz normal

  • In der Schule wird viel über die Risiken von AI gesprochen, aber dieselben Risiken gelten für jede Lernumgebung
    Ich habe vor Kurzem einen neuen Job angefangen, und durch AI ist das Onboarding für mich deutlich schwieriger geworden. Ich komme viel langsamer in die Rolle als Kollegen, die AI weniger nutzen
    Ich programmiere in einer Sprache, mit der ich noch nicht vertraut bin, deshalb ist die Versuchung zum Vibe Coding noch größer. Trotzdem bin ich gut genug, um zu merken, wenn Claude Unsinn erzählt oder unnötig weitschweifig wird
    Aber je mehr Zeit ich damit verbringe, Claude Code schreiben zu lassen, desto weniger habe ich das Gefühl, die Fähigkeiten aufzubauen, die dieser Job von mir verlangt. Wenn ich einen PR einreiche, fühlt es sich auch nicht gut an, weil mir das Vertrauen in meine eigene Arbeit fehlt
    Ehrlich gesagt besteht ein weiterer Teil darin, dass ich Claude bitte, Dinge in Slack und in der Dokumentation nachzuschlagen, die ich eigentlich Menschen fragen sollte
    AI füttert meine soziale Angst und verführt mich dazu, menschlichen Kontakt zu vermeiden, der sowohl für das Verständnis als auch für grundlegende soziale Interaktion wichtig ist
    Das klingt vielleicht nach Verantwortungsauslagerung, aber man muss benennen, dass bestimmte Technologien für bestimmte Menschentypen besonders suchterzeugend sein und sie in negative Verhaltensschleifen sperren können
    Wenn ich die AI-Abhängigkeit jetzt aufschiebe, erreiche ich später vielleicht ein Niveau, auf dem ich Fähigkeiten aufgebaut habe und Ergebnisse leicht validieren sowie repetitive Aufgaben an AI delegieren kann. Das ist schwer, aber nötig

    • Ich würde empfehlen, Claude zu bitten, dir das Nötige beizubringen. Wie macht man aus diesem String Großbuchstaben? Wie geht man am besten an dieses Problem heran? Gibt es für diese Aufgabe einen Standardweg? Solche Dinge
      Dabei kann man unterwegs lernen. Du musst es nicht wie eine Suchmaschine benutzen; frag einfach nach dem, was du in dem Moment wissen musst, und dann schüttelt es die Tokenkette durch und liefert oft etwas Nützliches, gerade für Sprachanfänger
      So kannst du deinen Plan umsetzen, erst Fähigkeiten aufzubauen und später zu delegieren
      Ich mache das so, und für mich ist das ein guter Ausgleich. Claude Code schreiben zu lassen, den man selbst nicht beurteilen kann, wirkt auf mich wie Wahnsinn, aber damit scheine ich in der Minderheit zu sein
    • Im Moment ist es die schlechteste Zeit für Lehre nach Meister-Schüler-Prinzip, also Praktika. Alle erwarten, mit AI schnell und gut zu liefern, aber bei diesem schnellen Iterationstempo bleibt kaum Zeit, Fähigkeiten aufzubauen
    • LLMs waren ziemlich nützlich, um eine Codebasis zusammenzufassen und schnell zu erfassen
      Das ist tatsächlich einer der wenigen echten Use Cases, die ich außerhalb von Vibe Coding erlebt habe
  • Ich nutze AI nicht, um Denken auszulagern, sondern um vom repetitiven und langweiligen Schreiben von Code wegzukommen. Sobald ein Prototyp implementiert ist, ist AI kompetent genug, den Code zu schreiben
    Ich schreibe den groben frühen Proof-of-Concept-Prototyp selbst. Ohne Kommentare, mit hart kodierten Variablen und so weiter. Danach veredelt AI das auf Produktniveau
    Dadurch kann ich statt Menschen mit völlig unterschiedlicher Arbeitsethik, Kompetenz und Fähigkeit zur Sicherung hoher Codequalität ein Team aus Agenten steuern
    AI ist oft auch ziemlich gut darin, bestehende Muster in der Codebasis beizubehalten oder sich an Branchen-Best-Practices zu orientieren
    Wenn man AI benutzt, schreibt man irgendwann nicht mehr so viel in Programmiersprachen. Englisch oder die Sprache, in der man mit dem LLM spricht, wird dann zur Hauptsprache

    • „Sobald ein Prototyp implementiert ist, ist AI vollkommen kompetent, den Code zu schreiben“ – vollkommen? Von vollkommen ist das ganz sicher weit entfernt
      Ich verbringe heutzutage den Großteil meines Tages damit, die Unzulänglichkeiten von Codegenerierungsrobotern auszubessern
      Fairerweise pflege, erweitere und modernisiere ich aber auch kein neues Produkt, sondern ein geschäftskritisches Produkt, das seit über 8 Jahren existiert
    • Was soll überhaupt repetitiver und langweiliger Code sein?
      Wie viel von diesem langweiligen Wiederholungscode gibt es in realen Projekten denn ehrlich gesagt?
    • Die meiste Zeit geht dafür drauf, einen Plan und einen Prototyp-Umriss zu erstellen, mit dem das LLM arbeiten kann. Sonst wird alles ein schreckliches Chaos
      Man braucht sehr sorgfältig formulierte Prompts und muss daher Framework und Sprache wirklich verstehen. Sonst wird alles ein schreckliches Chaos
      Ich verstehe auch nicht, wie man mehrere Agenten gleichzeitig sinnvoll steuern soll. Normalerweise sind sie ziemlich schnell fertig. Man kann zwischen den Runs kaum etwas anderes tun. Es ist ständig dieser Zustand von „noch eine Minute, dann ist es fertig“
      Danach muss man die Ausgabe bewerten. Also kann man während der „Arbeit“ auch nicht tief nachdenken. Das Muster ähnelt Social Media: dauerhafte Aufmerksamkeit, fast sofortige Belohnung
      Am Ende geht die Konzentrationsspanne immer weiter kaputt, und zwar richtig
      Das Problem ist, dass solche Pläne nach ein paar Stunden wieder verschwinden und man dann die Ausgaben analysieren und iterieren muss, um die dummen Teile herauszufiltern
      Mit Ausgaben mehrerer Agenten umzugehen ist ständiger Kontextwechsel. Viel Erfolg damit auf lange Sicht
      Wenn man Agenten einfach frei herumlaufen lässt und irgendetwas bauen lässt, wird das Ergebnis mit sehr hoher Wahrscheinlichkeit ein schreckliches Chaos. Ende
  • In meinem aktuellen Projekt code ich jeden Tag in Java, Ruby und JavaScript. Dabei verschwende ich viele Tokens, um Sprachunterschiede nachzuschlagen, für die früher eine einfache Google-Suche gereicht hätte
    Ich verwechsle ständig Dinge wie den null-sicheren Operator in Ruby und JavaScript oder continue/break in Ruby und Java
    Claude wäre wahrscheinlich enttäuscht, dass die komplexeste Sache, um die ich es bitte, meist darin besteht, alte Java-Schleifen in modernere Streams zu refaktorisieren. Solchen Code spontan als Mensch zu schreiben, ist fast unmöglich

    • Schade um das „für Menschen fast unmöglich“. Solche Refactorings mag ich am liebsten: enger Scope, leicht auf Korrektheit zu prüfen, fast wie ein kleines Rätsel
      Bonuspunkte gibt es, wenn man eigene Collector baut oder einen etwas obskureren Teil der Standardbibliothek nutzt
    • Dass Google kaputt ist, hilft auch nicht. Was früher eine simple Google-Suche war, ist jetzt ohnehin eine verschlechterte eingebaute Erfahrung, in die sich AI dazwischendrängt
  • Es gibt auch Gegenbeispiele. Im /plan-Modus Ideen mit AI hin- und herzuspielen, dabei falsche Annahmen der AI zu erkennen und sich Wissenslücken bei Bedarf sauber erklären zu lassen, ist intellektuell ziemlich stimulierend und macht mich eher zu einem besseren Engineer
    Der Schlüssel ist, AI sokratisch zu begegnen, alles sorgfältig zu durchdenken, was sie vorschlägt, und sich nicht von dem selbstsicheren Tonfall und der perfekt strukturierten Logik hypnotisieren zu lassen

  • Ich mache genau die gegenteilige Erfahrung. Vermutlich, weil in meinem Bereich Code/Software nicht das Produkt, sondern ein Werkzeug ist
    Ich lerne viel schneller und viel mehr. Ich arbeite zum Beispiel gerade mit spektroskopischer Hardware wie Raman und NMR und habe Claude Code schreiben lassen, das auf Geräte- und Hardware-Ebene mit den Systemen interfaced
    Statt selbst Datenblätter zu wälzen und massenhaft Wrapper-Code zu schreiben, hat Claude das übernommen
    Ich komme viel schneller voran, indem ich verschiedene Techniken mit Claude diskutiere, implementiere und teste. Früher hätte diese Schleife fünf- bis zehnmal länger gedauert
    Weil ich keine geistige Energie mehr darauf verschwenden muss, belanglosen Code zu schreiben, nur um Ergebnisse zu sehen, lerne ich viel mehr über die Geräte, die Verfahren und die Daten
    Ich arbeite seit über 10 Jahren als Entwickler. Ich freue mich, dass ich jetzt endlich in eine Welt komme, in der Code nicht ständig selbst zum Produkt werden muss, sondern als Werkzeug dienen kann

    • Dass Code nicht das Produkt, sondern ein Werkzeug ist, könnte einfach nur auf dich zutreffen. Code als Werkzeug gab es schon immer
  • Ich glaube nicht, dass viele Leute das Privileg haben werden, sich Zeit zu nehmen, um Code von Hand zu schreiben
    Wenn ich mir den Code ansehe, den wir tatsächlich schreiben, dann ist das bei mir meistens nichts Neues oder Cooles, sondern immer wieder „Backend für X bauen“, einfache Bugfixes und triviale Aufgaben für Mid- bis Senior-Programmierer
    Die schwierigeren Aufgaben sind meist Architekturentscheidungen oberhalb des Codes, und ich denke gerade darüber nach, wie man Systeme bauen kann, die verhindern, dass LLMs bei der Feature-Implementierung vom Weg abkommen
    Was ich sagen will: Im Moment mag es noch okay sein, Code von Hand zu schreiben, aber künftig werden Aktionäre oder Vorgesetzte wollen, dass Features und Bugfixes mit Hilfe von LLMs schneller ausgeliefert werden
    Wenn du dieses Tempo nicht mitgehen kannst, wird deine Leistung als schwach gelten. Am Ende zählt nicht, was wir wollen, sondern was die Aktionäre wollen
    Natürlich kann man in seiner Freizeit noch von Hand coden, wenn man nicht zu erschöpft ist. Ich will nicht wie ein Pessimist klingen, aber ich glaube, das wird ziemlich bald Realität sein

    • Es ging von Anfang an nicht um Geschwindigkeit. Schneller Fortschritt entsteht meist nicht dadurch, dass man dieselben primitiven Bausteine schneller schreibt, sondern dadurch, dass man bessere Systeme entwirft und solide Abstraktionen schafft
    • Jeder hat Zeit, Code von Hand zu schreiben. Weil AI in Wirklichkeit keinen echten Produktivitätsgewinn erzeugt