15 Punkte von GN⁺ 2025-11-27 | 8 Kommentare | Auf WhatsApp teilen
  • Selbst in Hacker-Communitys verbreitet sich eine alltägliche Selbstrechtfertigung für den Einsatz von KI, und es wird sichtbar, dass Programmierer eine existenzielle Verunsicherung und einen rapiden Wandel des Werts ihrer Arbeit im Zusammenhang mit LLMs erleben
  • Selbst erfahrene Entwickler verfallen in eine Abhängigkeit von Vibecoding, verlieren die Kontrolle über ihre eigene Arbeit und erleben einen Wandel technischer Arbeit, bei dem ihre Rolle in zehrende Nacharbeiten an von KI erzeugten Ergebnissen umgeformt wird
  • Es gibt Menschen, die sich von LLMs fernhalten, doch viele werden durch UI, Arbeitsanforderungen, Wissensverschmutzung und sozialen Druck zum Einsatz gezwungen, auch wenn sie das nicht wollen — eine strukturelle Form von Zwang
  • Der menschliche Umgang mit Werkzeugen formt das Denken; LLMs greifen in Schreiben, Denken und Ausdruck ein, verzerren dabei auf subtile Weise Bedeutung und bergen das Risiko, dass wir unsere eigenen Gedanken mit Modell-Outputs verwechseln
  • KI-Systeme sind unabhängig von ihrem technischen Reifegrad eine Infrastruktur, die auf Machtverstärkung, Überwachung und Kapitalkonzentration ausgelegt ist; die Alternative dazu sind Praktiken der Selbsterhaltung und des Widerstands wie gemeinschaftliche Fürsorge, Arbeitsorganisation, Selbstbildung und schöpferische Tätigkeit

Gespräche im Hackerspace und die Verbreitung von LLMs

  • Im Hackerspace teilen Menschen ihre Erfahrungen damit, KI und Chat-Assistenten in der Alltagsarbeit zu nutzen, und immer wieder zeigt sich eine subtile Selbstrechtfertigung, bei der man die eigene Art der Nutzung für „vertretbar“ hält
    • Dasselbe Muster war zuletzt in mehreren Gesprächen zu beobachten
    • Selbst Menschen mit einer kritischen Haltung gegenüber LLMs beginnen irgendwann, deren Einsatz zu rechtfertigen
  • Es zeigt sich Enttäuschung darüber, dass LLMs selbst in progressive Hacker-Communitys eingedrungen sind
    • Selbst in Gruppen mit starker technischer Skepsis nimmt die Abhängigkeit von LLMs schnell zu

Vibecoding und der Wandel technischer Arbeit

  • Es ist zu beobachten, dass fähige Programmierer sich übermäßig auf KI-Coding-Tools wie Cursor verlassen und in Muster von Erschöpfung, Angst und zwanghafter Nutzung geraten
    • Ein beängstigender Anblick, ähnlich wie einem Freund beim Abrutschen in ein Alkoholproblem zuzusehen
  • Programmierung wird schneller und umfassender entwertet als erwartet; das ähnelt Entwicklungen, die bereits Designer, Autoren, Übersetzer und Buchbinder erlebt haben
    • Die Technik stirbt nicht, aber menschliche Arbeit schrumpft auf die Rolle, die von Maschinen angerichteten Schäden aufzuräumen
  • Es wird sichtbar, dass viele Entwickler auf diesen Wandel nicht gesund reagieren können

Die neue Realität und der erzwungene Einsatz von KI

  • Manche Menschen entscheiden sich bewusst dafür, LLMs überhaupt nicht zu verwenden, und auch der Autor hält an dieser Position fest
  • Doch diese Wahl ist nur in einer privilegierten Situation möglich; die meisten Menschen können aufgrund ihrer Umstände nicht anders, als KI zu nutzen
    • Das UI-Design erzwingt die Nutzung
    • Erwartungen und Bewertungen von Vorgesetzten setzen den Einsatz von KI voraus
    • Durch von KI erzeugte Wissensverschmutzung wird schon das Lernen selbst schwieriger
    • In Schule, Hochschule und Arbeit wird der Einsatz oft notwendig, um überhaupt unter gleichen Bedingungen konkurrieren zu können
  • Die öffentliche Debatte konzentriert sich meist auf Leistung, Fehler und Bias von KI, doch das trifft nicht den Kern des Problems
    • Unabhängig von der technischen Qualität gibt es grundlegendere Ziele und Auswirkungen

KI als Werkzeug und ihr Eingriff ins Denken

  • Der Gebrauch von Werkzeugen ist zentral für menschliches Denken; wir nutzen Werkzeuge und bauen unseren Denkprozess selbst auf ihnen auf
    • Tastatur, Fensterwechsel, Notizen und Wörterbücher werden alle zu integrierten Teilen des Denkens
  • Wenn KI in den Schreibprozess eingreift, werden Kontext, Absicht und Nuancen durch den Modell-Output neu zusammengesetzt; dadurch besteht die Gefahr, dass wir das ganz selbstverständlich als „meinen Gedanken“ annehmen
    • Wie man auch bei Code Reviews sieht, sind Menschen anfällig dafür, „plausibel Aussehendes“ zu glauben
  • Schreiben ist nicht bloß das Erzeugen von Text, sondern ein Prozess des Entdeckens und Verfeinerns von Gedanken; wenn in diesen Prozess fremdes Denken (das des Modells) eingreift, kann der eigene Ausdruck verloren gehen

KI-Infrastruktur innerhalb von Machtstrukturen

  • In einer Realität, in der soziale Kräfte Wahrheit neu definieren, Unternehmen des Überwachungskapitalismus agieren und Konzerne jenseits demokratischer Kontrolle stehen, ist es gefährlich, ihre Maschinen in unsere Denkprozesse eindringen zu lassen
  • KI-Systeme sind ein Mittel zur Verstärkung bestehender Macht- und Gewaltstrukturen
    • Sie werden als gewaltige physische Infrastruktur aufgebaut, die Kapital in Macht und Macht wiederum in Kapital verwandelt
    • Wer diese Infrastruktur kontrolliert, beherrscht die Menschen
  • Dass KI übermäßig ressourcenintensiv aufgebaut ist, ist kein technischer Zufall, sondern absichtliches Design
  • Menschliche Technik, Ausdruckskraft und qualifizierte Arbeit sind Kräfte, mit denen Menschen sich selbst steuern; ihre Schwächung begünstigt die Konzentration von Macht
    • Deshalb ist die Schwächung von kreativem und technischem Arbeiten mit einem strukturellen Ziel verbunden

Was bleibt: Praktiken des Überlebens und des Widerstands

  • Bei diesem Problem geht es nicht bloß um KI-Ethik, sondern um die menschliche Frage des Überlebens unter umfassender Kapitalmacht
  • Als unmittelbar mögliche Praxis werden vier Dinge vorgeschlagen
    • Zeit für Menschen im eigenen Umfeld aufbringen, Nachrichten schreiben und beziehungsorientierte Fürsorge praktizieren
    • Durch gewerkschaftliche Organisierung strukturelle Kraft aufbauen
    • Weniger Social Media nutzen und Zeit für mentale Gesundheit und Selbstbildung sichern
    • Weiterhin etwas neu erschaffen, das es zuvor nicht gab
  • Der stärkste Akt des Ungehorsams ist, gut zu überleben und aufzublühen

8 Kommentare

 
halfenif 2025-12-01

Ich finde, das Setting des SF-Romans Dune hatte eine sehr vorausschauende Einsicht.

Im Kampf Mensch vs. KI siegen die Menschen und schließen alle Computer aus.

 
indigoray 2025-11-28

Kritisch zu sein ist gut, aber warum verweigern Sie die Nutzung? Das ist eine Denkweise, die ich nicht nachvollziehen kann. LLMs werden von Tag zu Tag besser; man sollte doch Wege finden, sie gut zu nutzen, statt so zu tun, als hätte man tiefgründige Gedanken, und am Ende nur auf Ablehnung hinauszulaufen.

 
null468 2025-11-28

In Platons Phaidros wird eine Geschichte erzählt, in der über die Erfindung der Schrift gestritten wird.
„Die Schrift wird das Gedächtnis der Menschen schwächen. Denn wenn die Menschen sich auf die Schrift verlassen, werden sie Erinnerungen nicht mehr aus sich selbst heraus wachrufen, sondern sich auf äußere Aufzeichnungen stützen.“
Erinnert das Muster nicht an etwas?

 
GN⁺ 2025-11-27
Hacker-News-Kommentare
  • Ich bin enttäuscht, dass die LLM-Debatte inzwischen tief in die Hacker-Community eingesickert ist.
    Die frühere Hacker-Kultur hatte nicht diese Art von „progressiver luddistischer“ Stimmung. Es scheint, als habe inzwischen eine neue Kultur die alte ersetzt.
    Ich mag AI an sich nicht besonders, aber realistisch betrachtet besteht der Großteil der Arbeit aus sinnloser Routinearbeit. Manche Leute wollen diese Tatsache jedoch nicht anerkennen.
    Deshalb ist eine Atmosphäre entstanden, in der man schon angegriffen wird, nur weil man „AI benutzt hat“, selbst wenn man bloß ein Meme oder ein Zitat postet oder AI bittet, eine Handzeichnung zu erklären. Diese Haltung verbreitet im Alltag eher noch mehr Gift.

    • Ich denke, das Problem ist, dass mit dem Verschwinden der alten Hacker-Kultur unter dem Slogan „Jeder kann programmieren“ auch das Handwerksbewusstsein verschwunden ist.
      Früher standen technische Fähigkeiten und Kreativität im Mittelpunkt, heute sind Karrieretitel wie „ex-Google“ wichtiger.
      Wir haben die Kultur verkauft, und LLMs sind in das entstandene Vakuum eingedrungen.
      Jetzt müssen wir die Würde der Entwickler und die Würde der Technik wieder aufrichten. Wir sollten uns der geistigen Leere und dem Nihilismus stellen, die LLMs hinterlassen haben, und agitatorische Behauptungen wie „alle Softwarejobs verschwinden“ kritisch betrachten. Jetzt ist es Zeit aufzuwachen.
    • Seit meiner Kindheit habe ich einen Teil meines Gehirns an Computer delegiert. Ich muss mir keine Telefonnummern merken und keine Notizen mit mir herumtragen.
      IDEs haben Code automatisch vervollständigt, und Visual Studio hat aus DB-Schemata Modellklassen erzeugt.
      Solche Automatisierung ist das Wesen von Technologie. Ist es nicht genau der Zweck von Technik, Routinearbeit zu beseitigen?
      Ich vermute, dass diejenigen, die sich dagegenstellen, vielleicht deshalb Angst haben, weil diese „Routinearbeit“ den Großteil ihrer Arbeit ausmacht.
    • Ich erinnere mich an die Hacker-Kultur von vor 30 Jahren. Damals war Programmieren selbst Teil der Identität.
      Linux zu installieren oder einen PC zusammenzubauen konnte jeder, aber komplexen Code zu schreiben erforderte Hingabe.
      Ein großer Teil der heutigen Abneigung gegen AI ist in Wahrheit Verdrängung, die aus einer Bedrohung der eigenen Identität entsteht.
    • Ich bin progressiv, aber ich halte es für das größte Problem, dass AI-Technologie unter Verletzung der Rechte von Kreativen aufgebaut wurde.
      Wenn es eine Technologie ist, die auf den gestohlenen Daten unentlohnter Künstler basiert, dann ist ihr Widerstand völlig verständlich.
    • Der Ausdruck „luddistische Hacker“ ist schon komisch. Richard Stallman soll E-Mails ausdrucken, um sie zu lesen, und Webseiten mit wget herunterladen, um sie auszudrucken. Ein wahrhaft legendärer Fall.
  • Manche sagen, die Arbeit von Programmierern verliere an Wert, aber ich habe eher das Gefühl, dass es uns gerade so gut geht wie nie zuvor.
    Die Arbeit macht Spaß, die Bezahlung ist hoch und gesundheitlich ist sie kaum belastend. Außerdem explodiert die Zahl der Werkzeuge für Entwickler.
    Eher scheint mir der Slogan „Developers, developers, developers“ Realität geworden zu sein. Ich verstehe nicht, wie das ein „Wertverlust“ sein soll.

    • Dieser „Wertverlust“ ist in Wahrheit nur eine Korrektur der Blase aus der ZIRP-Ära.
      Durch billiges Geld bekamen auch Menschen mit mehr Glück als Können hohe Gehälter, aber jetzt löst sich diese Blase eben auf.
      Da LLMs einfache Aufgaben ersetzen, brechen nur die Positionen weg, die lange überschätzt waren.
      Für Leute wie uns, die auf einer soliden Karrierebasis stehen, ist das verkraftbar, aber die junge Generation, der ein „leichtes Leben in der oberen Mittelschicht“ versprochen wurde, steht unter Schock.
    • Seniors kommen vielleicht vorerst klar, aber wenn man Junior-Entwickler ist, dürfte die Zukunft beunruhigend wirken.
      In vielen Fällen arbeiten LLMs schon schneller und billiger als Menschen. Die ganze Branche hat hohe Gehälter lange über Informationsasymmetrie abgesichert, und diese Barriere fällt nun weg.
    • In meiner Region ist die Konkurrenz extrem hart. Wer Ende 30 ist, wird zum Ziel von „HR-Optimierung“, und Überstunden sowie Gesundheitsprobleme sind ernst.
    • Der „Wertverlust“ des Programmierens ist weniger ein berufliches Problem als ein gesunkener technischer Einstiegshürden.
      Dank LLMs kann jetzt jeder Code schreiben, wodurch Unterschiede im Können schwerer erkennbar werden.
      Solche Veränderungen gab es aber schon früher immer wieder — mit Assembler, Compilern, Cloud und anderen neuen Abstraktionsebenen.
      LLMs sind nur die neueste Version dieses Musters.
    • Dein Optimismus erinnert an Nassim Talebs Truthahn-Metapher. Jeden Tag bekommt der Truthahn Futter und glaubt daher, die Welt sei zu seinem Nutzen eingerichtet, bis ihn an Thanksgiving die Realität einholt.
  • Ich verstehe die Menschen, die Wert auf Handwerk legen, aber realistisch betrachtet sind Unternehmen gerade besessen von AI-Produktivitätskennzahlen.
    Auch Nicht-Entwickler bauen Apps, und Juniors wirken dank LLMs wie Genies. Wenn eine Organisation zahlengetrieben ist, kommt am Ende zwangsläufig der Druck: „Warum bist ausgerechnet du so langsam?“

    • Aber das ist eine Überschätzung von AI. In der Praxis profitieren vor allem erfahrene Entwickler am meisten, wenn sie LLMs gut einsetzen.
      Dass Nicht-Entwickler Apps bauen, ist eher ein Social-Media-Meme; in der Realität scheitert oft schon die Wartung.
      Stattdessen reichen Juniors häufig chaotische PRs ein, die von LLMs erzeugt wurden, und entziehen sich dann der Verantwortung.
      Wirklich fähig ist, wer lernt, LLMs als Werkzeug zu nutzen.
    • Ich habe diese Woche selbst wegen von AI erzeugtem Code einen abgebrochenen Rollout erlebt.
      AI hatte den Code so geschrieben, dass Datenschutzlogik umgangen wurde, und am Ende wurde unserem Team wegen angeblicher „Langsamkeit“ sogar das Recht auf Code-Reviews entzogen.
    • LLMs sind nützlich, wenn man sie gut einsetzt, aber sie verursachen auch Ungleichgewichte im Team.
      Wenn alle LLMs nutzen und man selbst es nicht tut, bleibt am Ende die zusätzliche Arbeit an einem hängen.
      Wenn das Team nicht denselben Workflow teilt, wächst nur die Reibung. Wenn es nicht passt, ist ein Teamwechsel vermutlich besser.
    • Wir leben jetzt im Zeitalter der Massenproduktion von Software. Immer mehr „Fließband-Entwickler“ drücken bloß noch auf Knöpfe.
      Aber die Qualität ist weit schlechter als bei Massenprodukten in anderen Industrien. Ich weiß nicht, wann diese Blase platzen wird.
    • Meiner Erfahrung nach war von Juniors mit AI erzeugter Code unwartbares Chaos.
      Erfahrene Seniors dagegen setzen AI geschickt ein und liefern hochwertigen Code. Am Ende ist der Unterschied im Können nur noch größer geworden.
  • „LLM-Hass“ wirkt auf mich wie tribalistisches Denken. Hacker waren ursprünglich Menschen, die neue Technologien ausprobierten und kaputtmachten.
    Warum sollten ausgerechnet LLMs die Ausnahme sein? Dass Technologie menschliche Arbeit ersetzt, ist eine natürliche Entwicklung.
    Wenn das Problem darin liegt, dass die Gesellschaft den Wert eines Menschen nur über seine „Beschäftigungsfähigkeit“ bemisst, dann muss man die Gesellschaftsstruktur ändern und nicht die Technologie aufhalten.

    • Die Aussage „Wir haben LLMs nicht ausprobiert“ ist falsch. Das ist bereits ein Urteil nach ausreichendem Testen.
    • Wir leben jetzt in einer Zeit, in der man gegen Zahlung der Stromrechnung unbegrenzt schlechten Code erzeugen kann. Das Besondere ist nur die schlechte Qualität.
  • Manche sagen, AI verstärke Machtstrukturen.
    Sie nehme den Menschen ihre Autonomie und schaffe ein System, das wie ein „Chickenized Human System“ nur noch auf Effizienz ausgerichtet sei.
    Der zugehörige Text zeigt diesen Kontext gut.

    • Entwickler befinden sich jedoch in einer Position, AI aktiv nutzen zu können.
      Guter Code bleibt komplex, und Entwickler, die gut mit AI umgehen können, gewinnen eher einen Wettbewerbsvorteil.
      Auch unser Startup nutzt AI intensiv, und selbst bei gleicher Technologie können wir dank Architekturkompetenz vorne liegen.
    • Das erinnert an Marshall Brains „Manna“-System. Es ist eine Erzählung über eine Zukunft, in der Menschen automatisierten Kontrollsystemen unterworfen sind.
      Originaltext von Manna
    • Aber worin unterscheidet sich diese Logik eigentlich vom Aufkommen von Excel? Dass man nicht mehr von Hand rechnet, hat die Gesellschaft schließlich auch nicht zum Einsturz gebracht.
    • Tatsächlich sind alle Werkzeuge wertneutral. Hebel oder Computer haben ebenfalls menschliche Strukturen verändert, aber das ist nicht die Schuld der Werkzeuge.
      Wer behauptet, LLMs seien besonders gefährlich, muss erklären, warum sie sich von anderen Werkzeugen unterscheiden.
    • Es wirkt, als wolle Cory Doctorow mal wieder ein neues Modewort prägen.
  • Wenn ich Entwickler sehe, die sagen: „Ich benutze niemals LLMs“, dann erscheint mir das wie Karriere-Selbstmord.
    Ich war anfangs auch skeptisch, aber inzwischen nutze ich täglich einen AI-Coding-Assistenten. Das ist eine neue Fertigkeit.

    • AI ist heute wie das frühe Internet: Die Qualität variiert enorm je nach Nutzung.
      Wer pauschal sagt, das sei „nutzlos“, verrät damit oft mehr über die eigene Haltung als über die Technologie.
    • Ich bin seit 40 Jahren in dieser Branche, und wer aufgehört hat zu lernen, ist am Ende als COBOL-Wartungskraft gelandet.
      Im technologiegeschichtlichen Sinn ist das gerade eine faszinierende Zeit. Ich lerne immer noch, und genau das hält mich lebendig.
    • Ich habe AI allerdings auch ein Jahr lang genutzt und dann wieder aufgehört.
      An dem Tag, als der Dienst ausfiel, fühlte es sich an, als wäre mir eine Hand abgetrennt worden. Da wurde mir klar: AI zehrte an meinem Denkvermögen und meinen Fähigkeiten.
  • Ich bevorzuge eine gemäßigte Position. Wenn ein neues Werkzeug auftaucht — wie Taschenrechner, PC oder AI — probiert man es eben aus und nutzt es, wenn es nützlich ist.

    • Manche sind jedoch müde von dem endlosen Hype um Dinge wie „4GL, Segway, NFT, Metaverse“.
      Wenn etwas wirklich nützlich ist, wird es Belege dafür geben, und dann ist es auch später noch nicht zu spät einzusteigen.
    • Das Wichtigste an einem Werkzeug ist Zuverlässigkeit. Wenn ein Taschenrechner 2+2=5 ausgibt, wirft man ihn weg, und genau bei dieser Zuverlässigkeit sind LLMs noch schwach.
    • Ich habe früher AWS gelernt, und dadurch ist meine Karriere steil nach oben gegangen.
      Kollegen lehnten es als „Cloud ist nur ein Hype“ ab, aber ich lernte CloudFormation und mein Gehalt verdreifachte sich.
      Am Ende wurde das Team aufgelöst, und ich blieb übrig.
    • Hier gibt es viel extremes Denken. Geschichten aus der Mitte finden kaum Gehör.
    • Ich war auch einmal moderat, aber inzwischen bin ich zu einem Technologieskeptiker geworden.
      Technologie hat den Menschen nicht befreit, sondern eher Überwachung und Sucht hervorgebracht.
      Generative AI bedroht Kreativität und menschliche Präsenz. Weder wir noch AI sind dafür bereit.
      Am Ende bleibt nur eine Wahl: widerstehen oder kapitulieren. Ich habe mich inzwischen für den Widerstand entschieden.
  • Ich halte die Behauptung, LLMs bedrohten den Lebensunterhalt von Entwicklern, für übertrieben.
    Im Gegenteil: LLMs geben uns eine fast übernatürliche Effizienz.
    Früher musste man IBM-Handbücher bestellen und zwei Wochen auf eine Antwort warten, heute fragt man Claude und bekommt in zwei Minuten sogar ein Beispiel.
    Selbst wenn die Antwort falsch ist, dauert die Korrektur viel kürzer als früher.
    Wer Anfänger ist, sollte LLMs nicht fürchten, sondern lernen, wie man sie effizient einsetzt.

    • Das Problem ist jedoch, dass die meisten Fragen mehr als nur eine einfache Antwort benötigen, nämlich Kontexterschließung.
      Wenn der Prozess verschwindet, in dem man Handbücher liest und Konzepte versteht, wird auch das Verständnis des „Warum“ schwächer.
    • Außerdem verbrauchen LLMs viele physische und finanzielle Ressourcen. Strom, Wasser und Kapital werden aufgebraucht.
      Dass dieses Geld nicht in andere innovative Ideen fließt, ist ein erheblicher Opportunitätskostenfaktor.
    • Selbst wenn es kein vollständiger Ersatz ist, kann schon ein Rückgang der Personalkosten um nur 30 % die Gehälter massiv einbrechen lassen. Das ist die eigentliche Gefahr.
  • Ich kann die Warnung des Autors gut nachvollziehen. AI fühlt sich an, als würde sie mein Denkvermögen schwächen.
    Wenn ich Python oder Terraform mit AI schreiben lasse, ist das bequem, aber die Tiefe meines Denkens nimmt ab.
    In letzter Zeit versuche ich, durch das Lesen von Büchern wieder menschlicher zu denken. Besonders beeindruckt hat mich die Reihe „Dune“.

    • Jemand machte allerdings den Witz, Python selbst lasse einen bereits das Wesen des Computers vergessen.
  • Dass eine Innovation wie LLM auftaucht und man sie einfach ignoriert mit den Worten „Interessiert mich nicht“, wirkt auf mich wie jemand, der im Zeitalter der Roboter aufs Spülen per Hand besteht.
    Ohne Neugier ist man schwerlich ein Hacker.

    • Ein echter Hacker würde selbst Modelle bauen und versuchen, sich von kommerziellen Diensten zu lösen.
      Ich hoffe, dass die Open-Weights-Bewegung wie zu Zeiten von eleuther.ai wieder auflebt.
    • Übrigens gibt es auch eine Studie über den Zusammenhang zwischen Geschirrspülern und Allergien bei Kindern.
      PubMed-Artikel
    • „Dishwasher Brainworms“ ist wirklich reine Satire. Am Ende trennen sich Menschen weniger an der Technologie als an ihrer Haltung.
 
gooksangom6394 2025-11-27

Ich kann jedes Mal nicht nachvollziehen, wenn ich solche Einschätzungen sehe. Wenn es darum ginge, dass es Ausgleichsmaßnahmen für sogenannte „technisch Benachteiligte“ braucht, also Menschen mit schwachem Zugang zu Wissen und Technik wie ältere Menschen oder einkommensschwache Schichten, dann könnte ich dem wirklich zustimmen und das nachvollziehen. Aber so klingt es für mich nach nichts anderem als einem weinerlichen „Ich mag das nicht, und ich wünschte, es gäbe das in meinem Leben gar nicht und das wäre überhaupt kein Problem“. Das klingt fast wie „Früher war alles besser“, aber trotzdem fährt man nach wie vor mit dem Auto statt mit der Kutsche zur Arbeit und erledigt mit dem Computer in viel kürzerer Zeit viel mehr Arbeit, statt mit einer in Tinte getauchten Feder auf Papier herumzukratzen. Man fährt ohne Seile und Pfähle mit dem Aufzug im Gebäude auf und ab und geht nach Hause, um statt Schweinefettlampen, Fackeln oder Kerzen mit einem Klick elektrisch das Licht einzuschalten. Für manche Menschen mögen die alten Methoden besser gewesen sein. Dass man allein zu Hause der Vergangenheit nachhängt und an solchen Methoden festhält, kann ich verstehen. Aber was soll man machen? Wenn die Gesellschaft so etwas verlangt, will und akzeptiert, dann bleibt einem, um in dieser Gesellschaft zu leben, nichts anderes übrig, als in gewissem Maß daran teilzunehmen. Wenn man meint, es sei der falsche Weg, dann gibt es keine andere Antwort, als einen besseren Weg aufzuzeigen. Ich denke jedenfalls, dass die menschliche Gesellschaft ab einem gewissen Punkt einer außer Kontrolle geratenen Lokomotive ähnelt, die stirbt, wenn sie anhält.

Wenn man sich zumindest ernsthaft Sorgen darüber macht, dass die übermäßige Abhängigkeit von LLMs problematisch ist, und ernsthaft darüber sprechen will, in welche Richtung die Gesellschaft künftig gehen sollte, dann braucht es meiner Meinung nach eine etwas durchdachtere Einsicht als einen solchen selektiven und blinden „technologischen Fundamentalismus“. Entwickler seien von Vibe Coding abhängig? Ich habe eher den Eindruck, dass so etwas von Leuten kommt, die keine Entwickler sind oder nie richtig entwickelt haben, oder dass Erfahrungen von einzelnen Entwicklern, die sagen, sie hätten Vibe Coding ausprobiert, sensationsheischend aufgeblasen werden. Menschen, die sich übermäßig auf Vibe Coding stützen können, sind entweder keine Entwickler, oder sie machen als Entwickler wertlose Arbeit, oder sie betreiben bloß ein Hobby, das ohnehin nicht ihre eigentliche Arbeit ist. Dass ein Entwickler sich beim Weiterentwickeln auf ungeprüften Code verlässt, ist definitionsgemäß unmöglich. An irgendeinem Punkt muss man selbst verifizieren, und wenn so eine Verifikation nicht nötig ist, dann ist der Code entweder so simpel und wertlos, dass ihn jeder nach einem Tutorial abtippen kann, oder es ist Hobby-Code, bei dem es eben egal ist, auch ohne Verifikation. Wenn es Code ist, der verifiziert werden muss, und man entwickelt trotzdem weiter, ohne zu verifizieren, dann ist diese Person kein Entwickler mehr. Und wenn es kein Entwickler ist, wen interessiert es dann, ob diese Person sich an eine künstliche Intelligenz klammert und so lange bittet, fleht, droht oder herumkommandiert, bis am Ende irgendetwas Gewünschtes herauskommt?

Wer Entwickler ist, weiß schon nach kurzem Nachdenken, dass eine übermäßige Abhängigkeit von Vibe Coding in der Realität gar nicht bis zu einem so gravierenden Ausmaß gehen kann. Wenn man solche Tatsachen ausblendet und stattdessen nur das heranzieht, was der eigenen Behauptung nützt, dann na ja … dann ist das Gespräch in meinen Augen nicht weiter der Mühe wert.

Und wenn man sich schon Sorgen macht, selbst dann, wenn es nicht um vollständiges Vibe Coding geht, sondern nur um eine teilweise starke Abhängigkeit von künstlicher Intelligenz bei der Entwicklung, dann frage ich mich ernsthaft, wie man in einer Gesellschaft lebt, in der man sich keine Telefonnummern mehr merkt und mit dem rechteckigen Ding in der Hand jederzeit jeden anrufen kann.

 
opminsu 2025-11-28

Danke, ich habe den guten Artikel aufmerksam gelesen.

 
ididid393939 2025-11-28

Stimmt echt.

 
mhj5730 2025-11-28

Das ist ein Phänomen, das bei jedem Paradigmenwechsel häufig vorkommt ... Als das Auto zum ersten Mal aufkam, war es auch neben Pferden im Einsatz. Ich sehe darin ein historisches Muster.