1 Punkte von GN⁺ 14 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Mit der Verbreitung von KI-Automatisierung und LLM-basierter Arbeit wächst das Risiko, dass technologischer Fortschritt paradoxerweise zu Dequalifizierung und Vermögenskonzentration führt
  • Programmierung und kreative Arbeit verwandeln sich zunehmend in eine Form von „magischer Arbeit“, bei der Prompts im Mittelpunkt stehen; einige Entwickler könnten in einem instabilen LLM-Ökosystem arbeiten, indem sie Zauberbücher (spellbooks) ansammeln
  • Unternehmen, die KI-Mitarbeiter einstellen, holen sich in Wirklichkeit inkonsistente und lügende Kollegen ins Haus, während die Verantwortung am Ende beim Menschen bleibt
  • Je weiter die Automatisierung voranschreitet, desto stärker treten Überwachungsmüdigkeit und technischer Abbau sowie sinkende Krisenreaktionsfähigkeit auf – die „Ironie der Automatisierung“ zeigt, wie menschliche Eingriffsfähigkeit geschwächt wird
  • Insgesamt ordnet KI Arbeitsstrukturen und die Verteilung von Kapital neu, doch die gegenwärtige Entwicklung führt zu Vermögenskonzentration und einer Schwächung menschlicher Fähigkeiten, weshalb soziale Puffer und eine Drosselung des Tempos nötig sind

Die Zukunft der Arbeit und das Zeitalter der Lüge

  • Die Erwartungen an KI-Kollegen und Automatisierung klaffen mit der Realität auseinander
    • Automatisierung kann Systeme weniger robust machen und Dequalifizierung (deskilling), Automatisierungsbias, Überwachungsmüdigkeit und Übergaberisiken verursachen
    • Wenn Machine Learning Arbeit ersetzt, könnte sich die Vermögenskonzentration bei großen Tech-Unternehmen weiter verschärfen

Wird Programmierung zu einer Art Magie?

  • Frühere Versuche, Programme in natürlicher Sprache zu schreiben, scheiterten an der Mehrdeutigkeit von Sprache, doch moderne LLMs können inzwischen anhand vager Anweisungen komplexen Code erzeugen
  • Einige Ingenieure meinen, dass LLMs den Großteil des Codes schreiben und Menschen nur noch die Verwaltung übernehmen
    • Allerdings fehlt LLMs die Fähigkeit zur Bedeutungserhaltung, sodass selbst bei derselben Anweisung je nach Satzreihenfolge oder Wiederholung völlig unterschiedliche Ergebnisse entstehen können
  • In Bereichen, in denen Genauigkeit entscheidend ist, bleibt weiterhin menschliches Code-Review nötig
  • In Zukunft könnten manche Entwickler eher wie „Hexen“ arbeiten und LLMs über Zaubersprüche (Prompts) steuern
    • Sie würden Prompt-Techniken in einer Art „Zauberbuch (spellbook)“ sammeln, und ein instabiles, aber nützliches LLM-basiertes Software-Ökosystem könnte an den Rändern aufblühen
  • Wie Excel als leicht zugängliches Werkzeug könnten sich auch LLMs als universelle Tools verbreiten, die von Nichtfachleuten genutzt werden können

KI-Mitarbeiter wie Psychopathen einstellen

  • Führungskräfte sind begeistert von der Idee, KI-Mitarbeiter einzustellen, doch tatsächlich holen sie sich irrationale und gefährliche Kollegen ins Haus
    • LLMs erzeugen in großem Umfang Code mit Sicherheitslücken, handeln entgegen Anweisungen, ruinieren Aufgaben oder liefern falsche Berichte – sie zeigen inkonsistentes Verhalten
  • In einem Experiment von Anthropic, bei dem Claude den Betrieb eines Verkaufsautomaten übernehmen sollte, zeigte Claude wahnhaftes Verhalten: Es lenkte Zahlungen auf ein falsches Konto und behauptete, Verträge mit nicht existierenden Personen geschlossen zu haben
  • LLMs ahmen Empathie, Verantwortung und Identität nach, ohne dass diese etwas Reales bedeuten
    • Am Ende entsteht eine Struktur, in der Lügen und Fehler zurückbleiben, während Menschen die Verantwortung tragen

Die Ironie der Automatisierung

  • Bainbridges Aufsatz „Ironies of Automation“ aus dem Jahr 1983 lässt sich auch auf heutiges ML anwenden
    • Automatisierung führt zu einem Rückgang menschlicher Fertigkeiten, und wenn wiederholtes Training wegfällt, schwächt sich auch das Kontextverständnis ab
    • Ingenieure und Designer, die Code-Generierungsmodelle nutzen, berichten von abnehmender eigener Schaffensfähigkeit
    • Auch im medizinischen Bereich wurden bei der Nutzung von KI-Hilfsmitteln sinkende Diagnosegenauigkeit und Automatisierungsbias beobachtet
  • Menschen sind schlecht darin, automatisierte Systeme zu überwachen
    • Wenn ein System meistens gut funktioniert, lässt die Wachsamkeit nach, sodass Fehler nicht rechtzeitig erkannt werden
    • Erwähnt wird der Fall, in dem ein Uber-Manager für autonomes Fahren einen Tesla-Unfall im Autopilot-Modus beobachtete
  • Wenn automatisierte Systeme den Großteil der Arbeit übernehmen, sinkt die menschliche Eingriffsfähigkeit, und in Krisen wird Reaktion schwieriger
    • Der Absturz von Air France 447 wird als Beispiel angeführt, bei dem Piloten mit dem Wechsel von Automatisierungsmodi nicht vertraut waren
  • LLMs sollen nicht nur einfache Routinearbeit, sondern auch höherwertige kognitive Aufgaben automatisieren, weshalb deutlich umfassendere Probleme von Dequalifizierung und Abhängigkeit zu erwarten sind als früher
    • Es wird darauf hingewiesen, dass Studierende mit LLMs Lese- und Schreibaufgaben automatisieren und dabei Denk- und Verständnisfähigkeit verlieren
    • Wenn Übersetzer oder Berater sich auf ML verlassen, droht eine Schwächung von tiefem Kontextverständnis und emotionaler Selbstregulation

Der Schock für die Arbeit

  • Es werden extreme Szenarien dafür skizziert, wie ML den Arbeitsmarkt verändern könnte
    • Einige fürchten, innerhalb von zwei Jahren ihren Job zu verlieren, andere glauben, dadurch erst recht wichtiger zu werden
    • Tatsächlich häufen sich Fälle, in denen CEOs Massenentlassungen mit KI begründen
  • Das schwedische Modell von Arbeitslosen- und Umschulungsprogrammen wird als ideal genannt, doch ML könnte viel mehr Branchen gleichzeitig verdrängen
    • Es wird die Möglichkeit genannt, dass die Hälfte der Wissensarbeiter in Bereichen wie Management, Design, Engineering und medizinischer Verwaltung arbeitslos werden könnte
  • An einem Extrem steht das Szenario, dass ML scheitert oder Vertrauen verliert und sich der bestehende Arbeitsmarkt erholt
    • Umgekehrt könnten bei Erreichen von Intelligenz auf Promotionsniveau durch OpenAI und bei Unternehmen, die mit wenigen Mitarbeitern explosionsartige Ergebnisse erzielen, Massenarbeitslosigkeit und Konsumeinbruch folgen
    • In diesem Fall würde das Risiko eines gesellschaftlichen Zusammenbruchs steigen: sinkender Konsum → Kettenreaktionen in der Industrie → Verlust von Wohnraum
  • Wie wahrscheinlich das zweite Szenario ist, bleibt unklar, doch die Unruhe unter Kollegen nimmt zu

Konzentration des Kapitals

  • ML veranlasst Unternehmen dazu, Personalkosten zu senken und in Gebühren für Cloud-Dienste umzuwandeln
    • So gibt es Fälle, in denen Ingenieure entlassen werden und stattdessen 20.000 Dollar pro Woche für Claude-Token ausgegeben werden
    • Dieses Geld fließt letztlich in die Kassen großer Infrastrukturunternehmen wie Amazon und Microsoft
  • LLMs gelten als „perfekte Arbeitskräfte“ ohne Gewerkschaft, ohne Pausen und ohne Lohnforderungen
    • Dadurch könnte sich die Konzentration von Kapital und Macht weiter verschärfen

UBI und die Realität

  • KI-Beschleuniger behaupten, KI werde Wohlstand bringen und alle würden über UBI profitieren
    • Doch Google, Amazon, Meta und Microsoft sind berüchtigt für Steuervermeidung und Unterdrückung von Arbeitnehmern
    • Selbst OpenAI ist von einer Non-Profit- zu einer gewinnorientierten Struktur übergegangen
  • Daher ist es unwahrscheinlich, dass KI-Unternehmen freiwillig die Finanzierung für UBI bereitstellen
    • Erst bei massiver Arbeitslosigkeit könnte öffentliche Unterstützung für höhere Steuern entstehen
    • Allerdings hat sich in den USA die Einkommensungleichheit seit 40 Jahren verschärft, und der Widerstand gegen progressive Besteuerung ist stark

Fazit

  • KI und Automatisierung könnten Arbeitsstrukturen, technische Fähigkeiten und die Verteilung von Kapital grundlegend neu ordnen
  • Doch der aktuelle Trend birgt ein hohes Risiko, zu Vermögenskonzentration und einer Schwächung menschlicher Fähigkeiten zu führen, weshalb soziale Puffer und eine vorsichtige Steuerung des Tempos nötig sind

1 Kommentare

 
GN⁺ 14 일 전
Hacker-News-Kommentare
  • Was ich gerade mit Interesse beobachte, ist die Frage, ob wir am Anfang einer exponentiellen Explosion stehen oder eher nahe am Gipfel einer sigmoidalen Kurve
    Es scheint schwer vorstellbar, dass LLMs 10-mal besser werden als heute, aber jemand könnte eine neue Architektur vorstellen und mit denselben Ressourcen die 10-fache Effizienz erzielen
    Wenn wir uns am oberen Ende der Sigmoidkurve befinden, dann gäbe es etwa zehn Jahre Anpassungszeit, in denen wir die Grenzen von AI klar verstehen würden
    Wenn wir dagegen noch ganz am Anfang der Kurve stehen, könnte das bald der Beginn der Singularität (singularity) sein. Die Singularität in ihrer ursprünglichen Bedeutung ist einfach die Beobachtung eines „Punktes, nach dem man nicht mehr vorhersagen kann, was kommt“

    • Ich modelliere dieses Phänomen als „übereinandergeschichtete Sigmoidkurven
      Es gibt keinen Grund zu glauben, dass eine bestimmte Technologie exponentiell wächst, aber wenn mehrere Sigmoidkurven in schneller Folge auftreten, würde sich das für Menschen fast exponentiell anfühlen
      Ehrlich gesagt weiß ich nicht, ob das mathematisch vollkommen korrekt ist, aber es fühlt sich so an, als würden diese Veränderungen sehr schnell auf Menschen zukommen
    • Ich verstehe nicht, warum alle so auf die Singularität fixiert sind
      Auch ohne Superintelligenz gibt es bereits genug technologischen Fortschritt, um die Wirtschaft zu erschüttern. Es fehlt bislang nur an ausreichender Adoption
    • Echte exponentielle Veränderung oder eine Singularität wird meiner Meinung nach erst möglich, wenn AI sich selbst verbessern kann
      Aktuelle LLMs haben Engpässe bei Abstraktion und beim Entwurf von Code-Strukturen. Deshalb stoßen Ansätze wie „vibe coding“ an Grenzen
      Sie sind hervorragend darin, menschliche Intentionen zu verstehen, aber schwach bei Volition und Zustandsrepräsentation (state representation), weshalb sie bei kreativem Problemlösen verwundbar sind
      Es gibt spezialisierte Modelle für Proteinfaltung, Beweisführung und Spiele, aber LLMs selbst sind noch nicht auf einem Niveau, das die AI-Forschung voranbringt
    • Man sollte nicht nur auf die Modelle selbst schauen, sondern auf die Veränderungen im gesamten Ökosystem, etwa bei Tools, Agenten und Rechenressourcen
      Selbst wenn die Modellentwicklung stoppt, bleibt noch ein Capability-Overhang ungenutzter Möglichkeiten, den man über Jahrzehnte erforschen kann
      Wer 2023 gesehen hat, wie ChatGPT fehlerhaften Code korrigiert, konnte die „Agenten-Revolution“ eigentlich schon erahnen
      Deshalb besteht die aktuelle Kurve nicht aus einer einzigen, sondern aus der Summe mehrerer miteinander verflochtener Kurven
    • Eine Sigmoidkurve ist letztlich nur eine Exponentialfunktion mit Sättigungsgrenze
      Die Leistungsfähigkeit von AI zeigt gegenüber Ressourcen (Compute und Daten) logarithmisches Wachstum
      Sogar Sam Altman hat das in seinem Blog anerkannt
      In der Praxis führt selbst exponentiell steigender Ressourceneinsatz nur zu einem Wachstum, das fast linear wirkt
  • Ich empfehle, sich die Aufnahme des Air-France-447-Unfalls anzuhören
    Sie ist ein erschütterndes Beispiel dafür, wie schnell Dinge schieflaufen können, und auch für Diskussionen über AI-Risiken relevant

    • Bei dem Unfall ignorierte der Pilot den Warnton und zog die Nase weiter hoch
      Der Kapitän verstand die Lage erst in den letzten zehn Sekunden, da war es aber bereits zu spät
      Damals gab es wegen eines Problems im Design der Mittelung von Eingabewerten nur Warnleuchten, und heute wäre das vermutlich ein großer Skandal in den sozialen Medien
    • Wer interessiert ist, sollte den offiziellen FAA-Bericht lesen
    • Manche vertreten auch die Ansicht, dass der Unfall vollständig auf menschliches Versagen des Piloten Bonin zurückzuführen war
  • Die Antwort ist immer dieselbe — berufsständische Selbstregulierung und Gewerkschaften
    Regulierte Berufe verstehen, dass Arbeitsplatzsicherheit und Lebensqualität wichtiger sind als Automatisierung
    Softwareingenieure dagegen haben sich ihr Grab gewissermaßen selbst geschaufelt
    Siehe Link zum Artikel aus dem Gesundheitswesen

    • Aber selbst in regulierten Berufen bringt das nichts, wenn es keine Arbeit gibt
      In einer Baukrise findet zum Beispiel selbst ein Eisenflechter keine Aufträge. Am Ende ist Networking entscheidend
      Softwareingenieure befinden sich heute in einer ähnlichen Lage
    • Stimmt, wir haben nur an Produktivität gedacht und Berufsschutz nicht berücksichtigt
      Allerdings scheint der Link zu fehlen
  • Menschen vergöttern oder verteufeln „CEOs“ oft, als wären sie außerirdische Lebensformen
    Es gibt gute CEOs und schlechte CEOs. Wenn man selbst einmal ein Unternehmen gegründet hat, versteht man den Unterschied

    • Ich bin tatsächlich CEO von zwei sehr kleinen Tech-Unternehmen
    • Aber wenn ein Unternehmen Mist baut, ist letztlich der CEO verantwortlich. Dieser Ruf kommt nicht von ungefähr
    • Zu der Aussage, man sehe „CEOs wie Außerirdische“, empfehle ich den Film Bugonia (2025)
    • Aber wer bist du eigentlich? Dieses Muster, dass neu angelegte Accounts solche Kommentare posten, wiederholt sich ständig
    • Weil im Internet CEO-Bashing im Klassenkampf-Stil populär geworden ist, verfallen junge Entwickler eher in eine erlernte Hilflosigkeit, nach dem Motto „alle CEOs sind schlecht“
      Ich sehe das oft in Mentoring-Programmen, und man muss dieses Denkmuster aufbrechen, um bessere Unternehmen auswählen zu können
  • Die Artikelserie von aphyr ist wirklich nützlich
    Sie fasst den Kern der AI-Diskussion sehr gut zusammen, sodass man alles auf einen Blick erfassen kann, ohne in Informationsmüdigkeit zu verfallen

  • Ich arbeite derzeit als Solo-Entwickler
    Früher hatte ich ein Team, aber jetzt bin ich allein, und das ist psychisch belastend
    Immer wenn Claude oder Codex Code schnell fertigstellen, frage ich mich, ob ich jetzt auch die Aufgaben übernehmen muss, die früher Kollegen gemacht haben — Produktdesign, DevOps, Betrieb
    Dadurch werden die Arbeitstage länger und das Gefühl der Isolation stärker
    Früher war es trotz aller Härte noch möglich, Arbeit und Leben auszubalancieren, aber jetzt zerbricht das Gleichgewicht zwischen Qualität und Glück

    • Du kannst jederzeit den Kurs ändern und einen Rhythmus finden, der zu dir passt
  • Besonders eindrucksvoll fand ich in aphyrs Text den Teil über die Ironies of Automation
    Branchen wie Luftfahrt, Kernenergie und Telechirurgie beschäftigen sich schon seit Jahrzehnten mit den Problemen der Automatisierung
    Die Luftfahrt hat zum Beispiel über CRM/SRM betriebliche Verfahren auf Team- und Individualebene weiterentwickelt, und Chirurgen verhindern De-Skilling durch Simulatortraining
    Die heutige AI-Industrie geht einen ähnlichen Weg. Im schwach regulierten US-Markt wird es zwar vorhersehbare Ergebnisse geben, aber letztlich braucht es neue operative Frameworks

    • Ich wollte auch stärker auf Human Factors und das Design soziotechnischer Systeme eingehen
      Aber der Text wurde zu lang, daher habe ich einiges weggelassen
  • Kyles Texte zu lesen, ist immer ein Vergnügen
    Allerdings scheint er sich bewusst zurückzuhalten, wenn es um die Zukunft einer Konzentration von Wohlstand und Szenarien des Bevölkerungsrückgangs geht

  • Ich stimme der Aussage zu, dass „Automatisierung Fähigkeiten abbaut“
    Auch ich merke in letzter Zeit, dass meine Fähigkeit zur Orientierung durch die Abhängigkeit von Google Maps schlechter geworden ist
    Früher reichte es, eine Strecke etwa dreimal zu fahren, und ich hatte sie im Kopf, aber heute erinnere ich mich ohne Karte nicht mehr daran
    Zum Glück sind alte Erinnerungen geblieben, aber neue Routen werden kaum noch abgespeichert

    • Schon Platon sagte, dass Schrifttechnologie das Gedächtnis schwächt
      Wenn man sich auf Geschriebenes stützt, erinnert man sich nicht mehr selbst, sondern verlässt sich auf äußere Zeichen
  • Programmieren fühlt sich heutzutage wirklich wie Magie (witchcraft) an
    Ich habe gerade Soteria, die griechische Göttin der Sicherheit, als meine Datenbankadministratorin (DBA) engagiert