31 Punkte von GN⁺ 2025-03-19 | 29 Kommentare | Auf WhatsApp teilen
  • Es stimmt, dass LLM-Tools die Produktivität von Entwicklern steigern
  • Langfristig führt die Abhängigkeit von solchen Tools jedoch dazu, dass die Fähigkeit sinkt, Probleme eigenständig zu lösen
  • Das Erfolgserlebnis beim Schreiben von Code verschwindet, und statt Probleme selbst zu lösen, wartet man auf die Antwort der KI

Nachlassende Begeisterung und fehlender Pioniergeist in der Entwicklung

  • Es gibt auch Menschen, die das Programmieren an sich nicht genießen → in solchen Fällen passt die Softwareentwicklung möglicherweise nicht zu ihnen
  • Die besten Ingenieure, die ich kennengelernt habe, bauen selbst am Wochenende aus eigenem Antrieb Tools oder Software und streben nach Innovation
  • Die Verbesserung der Systemleistung ist nur mit grundlegendem Verständnis möglich; sonst ist es nichts weiter als planloses Ausprobieren

Das Phänomen „Copilot Lag“

  • „Copilot Lag“ bezeichnet den Zustand, in dem man auf die nächste Anweisung der KI wartet
  • Das ist ähnlich wie bei einem Junior-Entwickler, der auf Anweisungen eines Seniors wartet
  • Durch die Nutzung von GitHub Copilot vergisst man sogar grundlegende Sprachelemente und Syntax
  • Kurzfristige Geschwindigkeitsgewinne führen dazu, dass langfristiges Wissen verkümmert

LLMs können den Lernprozess behindern

  • Beim Studium von Thorsten Balls „Writing An Interpreter In Go“ hat Copilot zwar Code erzeugt, aber ich habe dadurch nicht die Fähigkeit gewonnen, ihn selbst wieder zu schreiben
  • Wichtige Konzepte wie Speicherverwaltung oder datenorientiertes Design werden dabei leicht übersehen
  • Von KI erzeugter Code kann oberflächlich richtig aussehen, ist aber bedeutungslos, wenn man die zugrunde liegenden Prinzipien nicht versteht

Wie man LLMs effektiv nutzt

  • LLMs lassen sich nützlich wie eine Suchmaschine einsetzen
  • So wie man Stack Overflow durchsucht, kann man auch Antworten von LLMs als Referenz heranziehen
  • LLMs spiegeln jedoch nicht einfach das Wissen echter Experten wider, sondern erzeugen Antworten auf Basis gelernter Muster und Token-Sequenzen → deshalb gibt es viele Fehler
  • Man sollte Antworten von LLMs nicht ungeprüft übernehmen, sondern analysieren, warum genau dieser Ansatz empfohlen wird
  • Wenn man etwas nicht weiß, sollte man selbst recherchieren und lernen
  • Beim Lernen einer neuen Sprache (z. B. Zig) ist es hilfreich, das Gelernte zu notieren
  • Notizen können als Lernreferenz dienen und sind auch hilfreich, wenn man sie mit anderen teilt

Fazit

  • KI-Tools sind nützlich, aber blinde Abhängigkeit kann sogar kontraproduktiv sein
  • Wichtig ist, die Prinzipien hinter den von KI vorgeschlagenen Lösungen zu verstehen und die Bereitschaft zum eigenen Lernen zu bewahren
  • Am Ende entscheidend ist, die grundlegende Fähigkeit zur Problemlösung zu erhalten, statt von Tools abhängig zu werden

29 Kommentare

 
madnix 2025-03-27

Hm … es scheint von vornherein ein Unterschied in der Perspektive zu sein, ob man AI als Werkzeug oder als Intelligenz betrachtet. Ich kann diesem Artikel nicht zustimmen, denn wie ich bereits im Kommentar unten gesagt habe, ist es schon ein falscher Ansatz, Entwickler nur auf der Code-Ebene zu sehen. Auch als in Großbritannien in der Vergangenheit die Industrielle Revolution stattfand, schrien die Bauern auf, dass sie verhungern würden, doch im Ergebnis entstanden mehr Arbeitsplätze und es brachte der Menschheit viele Vorteile. Und auch als in der Vergangenheit der Computer aufkam, hieß es, die Menschen würden wegen des Computers nach und nach dümmer werden, doch letztlich konnten mehr Aufgaben in kürzerer Zeit gelöst werden, und die Menschen wurden klüger.

 
jokerized 2025-03-24

Für anspruchsvolle Problemlösungen auf hohem Niveau sind LLMs, einschließlich Deep Research, bisher noch nicht wirklich nützlich. (Zum Beispiel bei der Entwicklung von Algorithmen auf Paper-Niveau)
Auch bei extremer Optimierung oder beim Programmieren, bei dem man verschiedene Systemeigenschaften und technische Fragen verstehen muss, braucht es nach wie vor menschliche Arbeit. Entwickler sind nicht einfach nur Programmierer, sondern Problemlöser. Irgendwann wird vielleicht auch End-to-End-Problemlösung möglich sein, aber im Moment wirkt es sich positiv auf die Produktivität aus, weil man Zeit beim Tippen und bei einfacher Programmierung spart und stattdessen in schwierigere Lösungsansätze investieren kann.

 
skarl86 2025-03-22

Irgendwann habe ich begonnen, es oft in einem ähnlichen Sinn wie Code-Review zu verwenden. Ich lasse mir Code vorschlagen, spreche über die Richtung des Codes, denke über bessere Methoden nach und mache Vorschläge; wenn ein Ergebnis herauskommt, mit dem ich zufrieden bin, übernehme ich es.

 
kaydash 2025-03-22

Über die gesamte Anwendungslogik und die Geschäftslogik muss der Mensch nachdenken.

 
elbanic 2025-03-22

Diese Sorge entsteht, wenn man Entwickler auf das reine Codieren beschränkt. Tatsächlich machen Entwickler viel mehr; man könnte zwar denken, dass die Abhängigkeit von KI beim Codieren sie dumm macht, aber man kann es auch so sehen, dass sie ihnen ermöglicht, sich stärker auf andere Bereiche zu konzentrieren.

 
pcj9024 2025-03-21

Ddudyai ... ich bin ein dummer Entwickler ...

 
dongyagn1 2025-03-20

Es hieß auch einmal, Unity mache Spieleentwickler dumm, aber am Ende sind die Leute nicht dumm geworden, sondern haben stattdessen noch viel mehr andere Dinge gelernt, und die Arbeit ist einfach nur mehr geworden. lol

 
halfenif 2025-03-21

Es ist einfach nur mehr Arbeit geworden ... Das kann doch nicht sein ...

 
nimgnos 2025-03-20

Dass AI Entwickler dumm macht … dieser Aussage kann ich nur schwer zustimmen.
Seit der Einführung von AI ist die Produktivität tatsächlich sprunghaft gestiegen.

 
vhzkfltmdnpxm 2025-08-18

Hier ist ein Idiot.

 
alpharoom 2025-03-19

Heutzutage lebt man wohl in einer Welt, in der man beschimpft wird, wenn man nicht der Meinung ist, dass man mit AI alles machen kann.

 
play1204dev 2025-03-19

Wenn es um Funktionen von Bibliotheken geht, die man nicht kannte, oder um Shell-Skripte, die einem nicht sofort einfallen, ist das noch okay, aber da werden schon deprecated Features oder nicht existierende Functions dazugemischt, sodass man die ganze Zeit mit Debugging verbringt.

> Man sollte die Antworten eines LLM nicht einfach unverändert übernehmen, sondern analysieren, warum es diesen Ansatz empfiehlt.

Ich finde, genau das ist der Kern.

 
dongwon 2025-03-19

Ich habe oft den Eindruck, dass Werkzeuge immer zugleich eine Erweiterung des Denkens und dessen Zerstörung mit sich bringen. Eigentlich müsste man durch diese Zerstörung des Denkens zu einer Erweiterung auf einer höheren Ebene gelangen können, doch in Momenten, in denen man darauf nicht vorbereitet ist, scheinen solche Probleme immer mitzukommen.

Deshalb begleiten die Nutzung von Werkzeugen am Ende wohl immer auch solche Überlegungen. Ich denke, das sind notwendige Prozesse. Statt sie einfach abzulehnen oder blind zu verwenden, halte ich es für sinnvoller, den Fokus darauf zu legen, wie man diese Werkzeuge gut einsetzt und wie man mit ihrer Hilfe grundsätzlich mehr Ressourcen auf die wirklich wichtigeren Bereiche verwenden kann.
(cursor usage inzwischen weit über 1.000 Mal pro Monat ...)

 
amarese 2025-03-19

Herr Kim. Ich möchte mir erlauben, Ihnen einen Rat zu geben. Es geht um nichts anderes als darum: Verwenden Sie nicht zu viele Excel-Funktionen. Wenn es Bequemlichkeit gibt, steigt auch das Risiko. Um ein Rind zu schlachten, braucht man eine entsprechende Klinge — aber braucht man zum Schlachten eines Huhns überhaupt ein Messer? Das Einfache kann die richtige Antwort sein.

 
codemasterkimc 2025-03-19

Der obige Beitrag ist wohl die GPT-Version von Excel-Funktionen, haha

 
losoowmik 2025-03-19

Meiner Meinung nach kann Kopfrechnen schnell sein, und ein Taschenrechner ist auch nützlich. Ist der Computer nicht eher ein überdimensioniertes Werkzeug? Das ist meine Ansicht.

 
jingjing2222 2025-03-19

Ich werde chatGPT nie wieder verwenden
Ich habe ebenfalls einen ähnlichen Beitrag geschrieben.

Es gibt zwar eindeutig den Effekt einer gesteigerten Produktivität, aber ich denke, man sollte es vermeiden, das eigene Denken vollständig daran abzugeben.

 
dicebattle 2025-03-19

Ich bin zwar immer noch ein leidenschaftlicher Anhänger von Cursor und Anthropic, aber irgendwann habe ich gemerkt, dass ich den Agent-Modus, von dem ich so begeistert war, immer seltener nutze. Stattdessen frage ich im Ask-Modus zuerst nach Architektur und Umsetzungsweg und übernehme die von der AI vorgeschlagenen Änderungen nur dann Schritt für Schritt, wenn ich sie wirklich ausreichend nachvollzogen habe.
Während zwei Engineers ein nicht besonders großes Modul (aber eines, das in unserem Arbeitsprojekt ziemlich wichtig ist) jeweils mit dem Agent-Modus refaktorierten und die Struktur erweiterten, habe ich irgendwann direkt erlebt, dass der Code, der eigentlich die Architektur aufräumen sollte, in Wirklichkeit Lesbarkeit und Struktur noch chaotischer gemacht hat. Seitdem habe ich meine Arbeitsweise so geändert.

 
onixboox 2025-03-20

Ich nutze es auch so. Wenn es wirklich eine Sprache ist, mit der ich mich zum allerersten Mal beschäftige, verwende ich den Agent-Modus. Bei einer Sprache, die ich kenne, prüfe ich aber zuerst, ob der Code überhaupt nachvollziehbar ist.

 
iolothebard 2025-03-19

Eher als dass KI Entwickler dumm macht …
bleiben dumme Entwickler auch mit KI dumme Entwickler …
Garbage in, garbage out

 
ehdgns104 2025-03-24

Da haben Sie völlig recht, haha

 
powerkid 2025-03-21

Ich stimme zu. Es scheint einfach ein weiteres nützliches Produktivitätstool zu sein, das weder pauschal schlecht noch pauschal gut ist.

 
halfenif 2025-03-21

Dem stimme ich zu.

Ich habe schon öfter gesagt, dass nicht jeder Entwickler gleich ist.

 
aer0700 2025-03-20

Diese Aussage scheint zuzutreffen ...

 
white9s 2025-03-19

Rau formuliert, aber ganz falsch ist das nicht. Im selben Sinne wie: Auf gute Fragen kommen gute Antworten ..

 
j2sus91 2025-03-19

Ich denke, der Autor spricht wohl davon, sich blind ausschließlich auf AI-Tools zu verlassen.

Meine persönliche Meinung ist: Wenn durch den Einsatz von AI die Effizienz der Arbeit gestiegen ist,
sollte man sie aktiv nutzen, um wiederkehrende Aufgaben zu reduzieren,
die gewonnene Zeit in breitere Bereiche zu investieren (z. B. dass sich ein Backend-Entwickler auch auf Frontend- oder App-Entwicklung ausweitet)
oder in zukunftsorientierte Themen wie Architekturdesign.

Wenn man den Gesamtinhalt betrachtet, würde der Autor der obigen Ansicht vermutlich ebenfalls zustimmen,
aber da es manchmal auch Entwickler gibt, die AI selbst ablehnen, wollte ich einfach ein paar Zeilen als Antwort dalassen .. haha
.

 
tsboard 2025-03-20

Ich stimme auch zu. Das erinnert mich an einen Artikel, in dem davon abgeraten wurde, Excel-Funktionen zu verwenden.
Ich denke, es ist von Vorteil, vorhandene Funktionen gut zu nutzen und so den Nutzen weiter zu erhöhen.

 
zinisuni 2025-03-19

Ich stimme zu. ^^

 
GN⁺ 2025-03-19
Hacker-News-Meinung
  • Manche Menschen haben vielleicht keinen Spaß daran, ihren eigenen Code zu schreiben. In dem Fall könnte man sagen, dass sie versuchen, in einem Bereich zu arbeiten, für den sie nicht geeignet sind
    • Ich habe jahrzehntelang ertragen, meinen eigenen Code zu schreiben. Manchmal ist es befriedigend, meistens ist es aber eine Abstraktion zwischen meinen Ideen und mir
    • Ich baue gern schnell etwas, und wenn ich eine Idee habe, möchte ich, dass sie so effizient und sauber wie möglich umgesetzt wird
    • Ich habe akzeptiert, mit LLMs zu arbeiten. Ich glaube nicht, dass mich das fauler gemacht hat
    • Im Gegenteil: Wenn ich feststecke, inspirieren sie mich dazu, überhaupt anzufangen. Sobald das LLM die Arbeit angestoßen hat, übernehme ich und bringe es auf meine Weise zu Ende
    • Ich produziere mehr Produkte als früher
    • Ich habe mit Menschen gearbeitet, und einige von ihnen sind Freunde. Sie halten ihren eigenen Code und ihre Methodik für heilig
    • Ich denke, wenn AI hereinkommt, gibt es für sie keinen Platz mehr. Ich bin wegen der Kreativität in dieses Spiel eingestiegen, und deshalb bin ich hier
    • Tools und Syntax sind nur Mittel zum Zweck
    • Das passiert immer wieder, sobald eine neue Abstraktionsebene entwickelt wird, die es einfacher macht, funktionierenden Code zu erstellen, ohne die darunterliegende Ebene zu verstehen
    • Fast immer sind es löchrige Abstraktionen. Manchmal muss man wissen, wie die untere Ebene tatsächlich funktioniert
    • Entwickler, die viel Zeit und emotionale Energie investiert haben, um die untere Ebene zu verstehen, behaupten, Menschen, die sich auf Abstraktionen verlassen, seien dümmer
    • Wir wären alle klüger, wenn wir unseren Code selbst schrieben, statt uns auf Third-Party-Bibliotheken zu verlassen
    • Wir wären klüger, wenn wir Speicher manuell verwalteten
    • Wir wären klüger, wenn wir jeden Code in Assembler schrieben und uns nicht auf Compiler verließen
    • Wir wären klüger, wenn wir unsere eigenen Transistoren verdrahteten
    • Die unteren Ebenen zu lernen, ist lehrreich. Oft ist es nötig, um die optimale Leistung herauszuholen
    • Aber um Kundinnen und Kunden einen Mehrwert zu liefern, muss man die unteren Ebenen nicht verstehen
    • Was mir an Coding-LLMs am besten gefällt, ist, dass ich sie bitten kann, mir beim Verstehen von Code zu helfen, den ich selbst noch nicht verstehe
    • Auch wenn ihre Antworten manchmal falsch sind, geben sie oft Hinweise, mit denen ich es selbst lösen kann
  • Ich habe eine ähnliche Erfahrung gemacht. Ich habe mit einem LLM eine Funktion gebaut und dann festgestellt, dass der Code aus einer bereits existierenden Bibliothek übernommen war
    • Hätte ich ordentlich recherchiert, hätte ich nicht eine viel schlechtere Version gebaut
    • Inzwischen nutze ich es nur noch, um auf Basis von Kommentaren im Editor Prototyp-Funktionen zu bekommen, und den Rest mache ich selbst
    • Eine AI-Pipeline aufzusetzen, nimmt den ganzen Spaß und fühlt sich wie eine sehr überwältigende Aufgabe an
    • Ich würde lieber einfach coden
    • Wenn ein LLM zwei-, drei- oder viermal hintereinander falsch liegt, steigt echter Ärger in mir hoch
    • Das ist ermüdend
    • Ich erwarte, dass es in den nächsten ein bis zwei Jahren einfacher wird und sich die UX verbessert, aber ich weiß nicht, wie es ausgehen wird
    • Vielleicht fehlt mir einfach die Vision
  • LLMs nehmen Studierenden die Motivation, technische Probleme tief zu verstehen und sich zu konzentrieren
    • Stattdessen kopieren sie, fügen ein und gehen weiter, ohne es zu verstehen
    • Die Analogie zum Taschenrechner könnte passend sein. Er ist erst dann das richtige Werkzeug, wenn man gelernt hat, von Hand zu rechnen
    • In einem Experiment bekamen BWL-Studierende ChatGPT und Aufgaben aus der Data Science
    • Sie fanden Lösungen ohne Vorwissen, aber sie eigneten sich kein Wissen an
    • Ein Freund bemerkte: "Dieses Sprachmodell hätte der breiten Öffentlichkeit nicht zugänglich gemacht werden dürfen"
  • Eine persönliche Anekdote aus meinem früheren Job
    • Ein Junior-Entwickler bekam die Aufgabe, ein Skript zu schreiben, das eine Liste von Branches erstellt, die lange nicht benutzt wurden
    • Ich bekam die Bitte um Review, und das meiste davon war in awk geschrieben
    • Sie hatten die Aufgabenbeschreibung in ein LLM eingegeben, die Antwort kopiert und in den Pull Request eingefügt
  • Platon, Phaidros, 370 v. Chr.: "Sie werden ihr Gedächtnis nicht mehr gebrauchen, weil sie sich nicht mehr selbst erinnern, sondern Erinnerungen durch äußere Zeichen wachrufen werden"
  • Ich mag altmodisch sein, aber ich erinnere mich an eine Zeit, in der stilles Versagen als eines der schlimmsten Dinge galt, die ein System tun kann
    • LLMs sind Maschinen des stillen Versagens
    • Sie sind an ihrem Platz nützlich, aber wenn ich höre, wie Chefs menschliche Arbeit durch AI ersetzen wollen, bin ich sicher, dass sie in die selbst verschuldete Katastrophe laufen werden
  • Ich bin in die Softwareentwicklung gegangen, weil ich gern Dinge baue und herausfinde, wie sie funktionieren
    • Mit der Tastatur Code zu schreiben, ist nur ein Nebeneffekt des Handwerks
    • Das ist, als würde man sagen, man müsse gern Gleichungen auf ein Whiteboard schreiben, um Mathematiker zu werden
    • Im Engineering ist das Finden einer Lösung normalerweise das eigentliche Endziel
    • Wenn es wertvoll ist, alles von Hand einzutippen, sollte ein guter Engineer das tun
    • Wenn das Einbinden einer Third-Party-Bibliothek der beste Einsatz ist, sollte man das tun
    • Wenn es der einfachste Weg ist, einen Teil des Codings an ein LLM abzugeben, sollte man das tun
  • Es gibt das Konzept des "Copilot Lag"
    • Gemeint ist der Zustand, in dem ein Engineer nach jeder Aufgabe darauf wartet, was als Nächstes zu tun ist
    • Ich habe diese Erfahrung seit 10 bis 15 Jahren gemacht
    • LLMs werden also nicht allzu viel zusätzlichen Schaden anrichten
  • Ich bin an den Punkt gekommen, Coding-Copilots aufzugeben
    • Die meiste Zeit verbringe ich damit, mit ihnen zu kämpfen
    • Ein Teil davon könnte meine Schuld sein
    • Es gibt auch UX-/Implementierungsprobleme
    • LLMs sind als mittelmäßige Experten für viele verschiedene Themen nützlich
    • Aber man gerät leicht in eine Echokammer
    • Es ist schockierend, gegen eine Wand zu laufen, genau dann, wenn menschliche Intuition, Neugier, Kreativität und Individualität gefragt sind
    • Ich bin zufrieden damit, sie als ein weiteres Werkzeug im Werkzeugkasten zu haben
    • Aber ich arbeite lieber mit echten Menschen zusammen