- Es stimmt, dass LLM-Tools die Produktivität von Entwicklern steigern
- Langfristig führt die Abhängigkeit von solchen Tools jedoch dazu, dass die Fähigkeit sinkt, Probleme eigenständig zu lösen
- Das Erfolgserlebnis beim Schreiben von Code verschwindet, und statt Probleme selbst zu lösen, wartet man auf die Antwort der KI
Nachlassende Begeisterung und fehlender Pioniergeist in der Entwicklung
- Es gibt auch Menschen, die das Programmieren an sich nicht genießen → in solchen Fällen passt die Softwareentwicklung möglicherweise nicht zu ihnen
- Die besten Ingenieure, die ich kennengelernt habe, bauen selbst am Wochenende aus eigenem Antrieb Tools oder Software und streben nach Innovation
- Die Verbesserung der Systemleistung ist nur mit grundlegendem Verständnis möglich; sonst ist es nichts weiter als planloses Ausprobieren
Das Phänomen „Copilot Lag“
- „Copilot Lag“ bezeichnet den Zustand, in dem man auf die nächste Anweisung der KI wartet
- Das ist ähnlich wie bei einem Junior-Entwickler, der auf Anweisungen eines Seniors wartet
- Durch die Nutzung von GitHub Copilot vergisst man sogar grundlegende Sprachelemente und Syntax
- Kurzfristige Geschwindigkeitsgewinne führen dazu, dass langfristiges Wissen verkümmert
LLMs können den Lernprozess behindern
- Beim Studium von Thorsten Balls „Writing An Interpreter In Go“ hat Copilot zwar Code erzeugt, aber ich habe dadurch nicht die Fähigkeit gewonnen, ihn selbst wieder zu schreiben
- Wichtige Konzepte wie Speicherverwaltung oder datenorientiertes Design werden dabei leicht übersehen
- Von KI erzeugter Code kann oberflächlich richtig aussehen, ist aber bedeutungslos, wenn man die zugrunde liegenden Prinzipien nicht versteht
Wie man LLMs effektiv nutzt
- LLMs lassen sich nützlich wie eine Suchmaschine einsetzen
- So wie man Stack Overflow durchsucht, kann man auch Antworten von LLMs als Referenz heranziehen
- LLMs spiegeln jedoch nicht einfach das Wissen echter Experten wider, sondern erzeugen Antworten auf Basis gelernter Muster und Token-Sequenzen → deshalb gibt es viele Fehler
- Man sollte Antworten von LLMs nicht ungeprüft übernehmen, sondern analysieren, warum genau dieser Ansatz empfohlen wird
- Wenn man etwas nicht weiß, sollte man selbst recherchieren und lernen
- Beim Lernen einer neuen Sprache (z. B. Zig) ist es hilfreich, das Gelernte zu notieren
- Notizen können als Lernreferenz dienen und sind auch hilfreich, wenn man sie mit anderen teilt
Fazit
- KI-Tools sind nützlich, aber blinde Abhängigkeit kann sogar kontraproduktiv sein
- Wichtig ist, die Prinzipien hinter den von KI vorgeschlagenen Lösungen zu verstehen und die Bereitschaft zum eigenen Lernen zu bewahren
- Am Ende entscheidend ist, die grundlegende Fähigkeit zur Problemlösung zu erhalten, statt von Tools abhängig zu werden
29 Kommentare
Hm … es scheint von vornherein ein Unterschied in der Perspektive zu sein, ob man AI als Werkzeug oder als Intelligenz betrachtet. Ich kann diesem Artikel nicht zustimmen, denn wie ich bereits im Kommentar unten gesagt habe, ist es schon ein falscher Ansatz, Entwickler nur auf der Code-Ebene zu sehen. Auch als in Großbritannien in der Vergangenheit die Industrielle Revolution stattfand, schrien die Bauern auf, dass sie verhungern würden, doch im Ergebnis entstanden mehr Arbeitsplätze und es brachte der Menschheit viele Vorteile. Und auch als in der Vergangenheit der Computer aufkam, hieß es, die Menschen würden wegen des Computers nach und nach dümmer werden, doch letztlich konnten mehr Aufgaben in kürzerer Zeit gelöst werden, und die Menschen wurden klüger.
Für anspruchsvolle Problemlösungen auf hohem Niveau sind LLMs, einschließlich Deep Research, bisher noch nicht wirklich nützlich. (Zum Beispiel bei der Entwicklung von Algorithmen auf Paper-Niveau)
Auch bei extremer Optimierung oder beim Programmieren, bei dem man verschiedene Systemeigenschaften und technische Fragen verstehen muss, braucht es nach wie vor menschliche Arbeit. Entwickler sind nicht einfach nur Programmierer, sondern Problemlöser. Irgendwann wird vielleicht auch End-to-End-Problemlösung möglich sein, aber im Moment wirkt es sich positiv auf die Produktivität aus, weil man Zeit beim Tippen und bei einfacher Programmierung spart und stattdessen in schwierigere Lösungsansätze investieren kann.
Irgendwann habe ich begonnen, es oft in einem ähnlichen Sinn wie Code-Review zu verwenden. Ich lasse mir Code vorschlagen, spreche über die Richtung des Codes, denke über bessere Methoden nach und mache Vorschläge; wenn ein Ergebnis herauskommt, mit dem ich zufrieden bin, übernehme ich es.
Über die gesamte Anwendungslogik und die Geschäftslogik muss der Mensch nachdenken.
Diese Sorge entsteht, wenn man Entwickler auf das reine Codieren beschränkt. Tatsächlich machen Entwickler viel mehr; man könnte zwar denken, dass die Abhängigkeit von KI beim Codieren sie dumm macht, aber man kann es auch so sehen, dass sie ihnen ermöglicht, sich stärker auf andere Bereiche zu konzentrieren.
Ddudyai ... ich bin ein dummer Entwickler ...
Es hieß auch einmal, Unity mache Spieleentwickler dumm, aber am Ende sind die Leute nicht dumm geworden, sondern haben stattdessen noch viel mehr andere Dinge gelernt, und die Arbeit ist einfach nur mehr geworden. lol
Es ist einfach nur mehr Arbeit geworden ... Das kann doch nicht sein ...
Dass AI Entwickler dumm macht … dieser Aussage kann ich nur schwer zustimmen.
Seit der Einführung von AI ist die Produktivität tatsächlich sprunghaft gestiegen.
Hier ist ein Idiot.
Heutzutage lebt man wohl in einer Welt, in der man beschimpft wird, wenn man nicht der Meinung ist, dass man mit AI alles machen kann.
Wenn es um Funktionen von Bibliotheken geht, die man nicht kannte, oder um Shell-Skripte, die einem nicht sofort einfallen, ist das noch okay, aber da werden schon deprecated Features oder nicht existierende Functions dazugemischt, sodass man die ganze Zeit mit Debugging verbringt.
> Man sollte die Antworten eines LLM nicht einfach unverändert übernehmen, sondern analysieren, warum es diesen Ansatz empfiehlt.
Ich finde, genau das ist der Kern.
Ich habe oft den Eindruck, dass Werkzeuge immer zugleich eine Erweiterung des Denkens und dessen Zerstörung mit sich bringen. Eigentlich müsste man durch diese Zerstörung des Denkens zu einer Erweiterung auf einer höheren Ebene gelangen können, doch in Momenten, in denen man darauf nicht vorbereitet ist, scheinen solche Probleme immer mitzukommen.
Deshalb begleiten die Nutzung von Werkzeugen am Ende wohl immer auch solche Überlegungen. Ich denke, das sind notwendige Prozesse. Statt sie einfach abzulehnen oder blind zu verwenden, halte ich es für sinnvoller, den Fokus darauf zu legen, wie man diese Werkzeuge gut einsetzt und wie man mit ihrer Hilfe grundsätzlich mehr Ressourcen auf die wirklich wichtigeren Bereiche verwenden kann.
(cursor usage inzwischen weit über 1.000 Mal pro Monat ...)
Herr Kim. Ich möchte mir erlauben, Ihnen einen Rat zu geben. Es geht um nichts anderes als darum: Verwenden Sie nicht zu viele Excel-Funktionen. Wenn es Bequemlichkeit gibt, steigt auch das Risiko. Um ein Rind zu schlachten, braucht man eine entsprechende Klinge — aber braucht man zum Schlachten eines Huhns überhaupt ein Messer? Das Einfache kann die richtige Antwort sein.
Der obige Beitrag ist wohl die GPT-Version von Excel-Funktionen, haha
Meiner Meinung nach kann Kopfrechnen schnell sein, und ein Taschenrechner ist auch nützlich. Ist der Computer nicht eher ein überdimensioniertes Werkzeug? Das ist meine Ansicht.
Ich werde chatGPT nie wieder verwenden
Ich habe ebenfalls einen ähnlichen Beitrag geschrieben.
Es gibt zwar eindeutig den Effekt einer gesteigerten Produktivität, aber ich denke, man sollte es vermeiden, das eigene Denken vollständig daran abzugeben.
Ich bin zwar immer noch ein leidenschaftlicher Anhänger von Cursor und Anthropic, aber irgendwann habe ich gemerkt, dass ich den Agent-Modus, von dem ich so begeistert war, immer seltener nutze. Stattdessen frage ich im Ask-Modus zuerst nach Architektur und Umsetzungsweg und übernehme die von der AI vorgeschlagenen Änderungen nur dann Schritt für Schritt, wenn ich sie wirklich ausreichend nachvollzogen habe.
Während zwei Engineers ein nicht besonders großes Modul (aber eines, das in unserem Arbeitsprojekt ziemlich wichtig ist) jeweils mit dem Agent-Modus refaktorierten und die Struktur erweiterten, habe ich irgendwann direkt erlebt, dass der Code, der eigentlich die Architektur aufräumen sollte, in Wirklichkeit Lesbarkeit und Struktur noch chaotischer gemacht hat. Seitdem habe ich meine Arbeitsweise so geändert.
Ich nutze es auch so. Wenn es wirklich eine Sprache ist, mit der ich mich zum allerersten Mal beschäftige, verwende ich den Agent-Modus. Bei einer Sprache, die ich kenne, prüfe ich aber zuerst, ob der Code überhaupt nachvollziehbar ist.
Eher als dass KI Entwickler dumm macht …
bleiben dumme Entwickler auch mit KI dumme Entwickler …
Garbage in, garbage out
Da haben Sie völlig recht, haha
Ich stimme zu. Es scheint einfach ein weiteres nützliches Produktivitätstool zu sein, das weder pauschal schlecht noch pauschal gut ist.
Dem stimme ich zu.
Ich habe schon öfter gesagt, dass nicht jeder Entwickler gleich ist.
Diese Aussage scheint zuzutreffen ...
Rau formuliert, aber ganz falsch ist das nicht. Im selben Sinne wie: Auf gute Fragen kommen gute Antworten ..
Ich denke, der Autor spricht wohl davon, sich blind ausschließlich auf AI-Tools zu verlassen.
Meine persönliche Meinung ist: Wenn durch den Einsatz von AI die Effizienz der Arbeit gestiegen ist,
sollte man sie aktiv nutzen, um wiederkehrende Aufgaben zu reduzieren,
die gewonnene Zeit in breitere Bereiche zu investieren (z. B. dass sich ein Backend-Entwickler auch auf Frontend- oder App-Entwicklung ausweitet)
oder in zukunftsorientierte Themen wie Architekturdesign.
Wenn man den Gesamtinhalt betrachtet, würde der Autor der obigen Ansicht vermutlich ebenfalls zustimmen,
aber da es manchmal auch Entwickler gibt, die AI selbst ablehnen, wollte ich einfach ein paar Zeilen als Antwort dalassen .. haha
.
Ich stimme auch zu. Das erinnert mich an einen Artikel, in dem davon abgeraten wurde, Excel-Funktionen zu verwenden.
Ich denke, es ist von Vorteil, vorhandene Funktionen gut zu nutzen und so den Nutzen weiter zu erhöhen.
Ich stimme zu. ^^
Hacker-News-Meinung
awkgeschrieben