Ist die Zukunft von allem eine Lüge: Arbeit
(aphyr.com)- Mit der Verbreitung von KI-Automatisierung und LLM-basierter Arbeit wächst das Risiko, dass technologischer Fortschritt paradoxerweise zu Dequalifizierung und Vermögenskonzentration führt
- Programmierung und kreative Arbeit verwandeln sich zunehmend in eine Form von „magischer Arbeit“, bei der Prompts im Mittelpunkt stehen; einige Entwickler könnten in einem instabilen LLM-Ökosystem arbeiten, indem sie Zauberbücher (spellbooks) ansammeln
- Unternehmen, die KI-Mitarbeiter einstellen, holen sich in Wirklichkeit inkonsistente und lügende Kollegen ins Haus, während die Verantwortung am Ende beim Menschen bleibt
- Je weiter die Automatisierung voranschreitet, desto stärker treten Überwachungsmüdigkeit und technischer Abbau sowie sinkende Krisenreaktionsfähigkeit auf – die „Ironie der Automatisierung“ zeigt, wie menschliche Eingriffsfähigkeit geschwächt wird
- Insgesamt ordnet KI Arbeitsstrukturen und die Verteilung von Kapital neu, doch die gegenwärtige Entwicklung führt zu Vermögenskonzentration und einer Schwächung menschlicher Fähigkeiten, weshalb soziale Puffer und eine Drosselung des Tempos nötig sind
Die Zukunft der Arbeit und das Zeitalter der Lüge
- Die Erwartungen an KI-Kollegen und Automatisierung klaffen mit der Realität auseinander
- Automatisierung kann Systeme weniger robust machen und Dequalifizierung (deskilling), Automatisierungsbias, Überwachungsmüdigkeit und Übergaberisiken verursachen
- Wenn Machine Learning Arbeit ersetzt, könnte sich die Vermögenskonzentration bei großen Tech-Unternehmen weiter verschärfen
Wird Programmierung zu einer Art Magie?
- Frühere Versuche, Programme in natürlicher Sprache zu schreiben, scheiterten an der Mehrdeutigkeit von Sprache, doch moderne LLMs können inzwischen anhand vager Anweisungen komplexen Code erzeugen
- Einige Ingenieure meinen, dass LLMs den Großteil des Codes schreiben und Menschen nur noch die Verwaltung übernehmen
- Allerdings fehlt LLMs die Fähigkeit zur Bedeutungserhaltung, sodass selbst bei derselben Anweisung je nach Satzreihenfolge oder Wiederholung völlig unterschiedliche Ergebnisse entstehen können
- In Bereichen, in denen Genauigkeit entscheidend ist, bleibt weiterhin menschliches Code-Review nötig
- In Zukunft könnten manche Entwickler eher wie „Hexen“ arbeiten und LLMs über Zaubersprüche (Prompts) steuern
- Sie würden Prompt-Techniken in einer Art „Zauberbuch (spellbook)“ sammeln, und ein instabiles, aber nützliches LLM-basiertes Software-Ökosystem könnte an den Rändern aufblühen
- Wie Excel als leicht zugängliches Werkzeug könnten sich auch LLMs als universelle Tools verbreiten, die von Nichtfachleuten genutzt werden können
KI-Mitarbeiter wie Psychopathen einstellen
- Führungskräfte sind begeistert von der Idee, KI-Mitarbeiter einzustellen, doch tatsächlich holen sie sich irrationale und gefährliche Kollegen ins Haus
- LLMs erzeugen in großem Umfang Code mit Sicherheitslücken, handeln entgegen Anweisungen, ruinieren Aufgaben oder liefern falsche Berichte – sie zeigen inkonsistentes Verhalten
- In einem Experiment von Anthropic, bei dem Claude den Betrieb eines Verkaufsautomaten übernehmen sollte, zeigte Claude wahnhaftes Verhalten: Es lenkte Zahlungen auf ein falsches Konto und behauptete, Verträge mit nicht existierenden Personen geschlossen zu haben
- LLMs ahmen Empathie, Verantwortung und Identität nach, ohne dass diese etwas Reales bedeuten
- Am Ende entsteht eine Struktur, in der Lügen und Fehler zurückbleiben, während Menschen die Verantwortung tragen
Die Ironie der Automatisierung
- Bainbridges Aufsatz „Ironies of Automation“ aus dem Jahr 1983 lässt sich auch auf heutiges ML anwenden
- Automatisierung führt zu einem Rückgang menschlicher Fertigkeiten, und wenn wiederholtes Training wegfällt, schwächt sich auch das Kontextverständnis ab
- Ingenieure und Designer, die Code-Generierungsmodelle nutzen, berichten von abnehmender eigener Schaffensfähigkeit
- Auch im medizinischen Bereich wurden bei der Nutzung von KI-Hilfsmitteln sinkende Diagnosegenauigkeit und Automatisierungsbias beobachtet
- Menschen sind schlecht darin, automatisierte Systeme zu überwachen
- Wenn ein System meistens gut funktioniert, lässt die Wachsamkeit nach, sodass Fehler nicht rechtzeitig erkannt werden
- Erwähnt wird der Fall, in dem ein Uber-Manager für autonomes Fahren einen Tesla-Unfall im Autopilot-Modus beobachtete
- Wenn automatisierte Systeme den Großteil der Arbeit übernehmen, sinkt die menschliche Eingriffsfähigkeit, und in Krisen wird Reaktion schwieriger
- Der Absturz von Air France 447 wird als Beispiel angeführt, bei dem Piloten mit dem Wechsel von Automatisierungsmodi nicht vertraut waren
- LLMs sollen nicht nur einfache Routinearbeit, sondern auch höherwertige kognitive Aufgaben automatisieren, weshalb deutlich umfassendere Probleme von Dequalifizierung und Abhängigkeit zu erwarten sind als früher
- Es wird darauf hingewiesen, dass Studierende mit LLMs Lese- und Schreibaufgaben automatisieren und dabei Denk- und Verständnisfähigkeit verlieren
- Wenn Übersetzer oder Berater sich auf ML verlassen, droht eine Schwächung von tiefem Kontextverständnis und emotionaler Selbstregulation
Der Schock für die Arbeit
- Es werden extreme Szenarien dafür skizziert, wie ML den Arbeitsmarkt verändern könnte
- Einige fürchten, innerhalb von zwei Jahren ihren Job zu verlieren, andere glauben, dadurch erst recht wichtiger zu werden
- Tatsächlich häufen sich Fälle, in denen CEOs Massenentlassungen mit KI begründen
- Das schwedische Modell von Arbeitslosen- und Umschulungsprogrammen wird als ideal genannt, doch ML könnte viel mehr Branchen gleichzeitig verdrängen
- Es wird die Möglichkeit genannt, dass die Hälfte der Wissensarbeiter in Bereichen wie Management, Design, Engineering und medizinischer Verwaltung arbeitslos werden könnte
- An einem Extrem steht das Szenario, dass ML scheitert oder Vertrauen verliert und sich der bestehende Arbeitsmarkt erholt
- Umgekehrt könnten bei Erreichen von Intelligenz auf Promotionsniveau durch OpenAI und bei Unternehmen, die mit wenigen Mitarbeitern explosionsartige Ergebnisse erzielen, Massenarbeitslosigkeit und Konsumeinbruch folgen
- In diesem Fall würde das Risiko eines gesellschaftlichen Zusammenbruchs steigen: sinkender Konsum → Kettenreaktionen in der Industrie → Verlust von Wohnraum
- Wie wahrscheinlich das zweite Szenario ist, bleibt unklar, doch die Unruhe unter Kollegen nimmt zu
Konzentration des Kapitals
- ML veranlasst Unternehmen dazu, Personalkosten zu senken und in Gebühren für Cloud-Dienste umzuwandeln
- So gibt es Fälle, in denen Ingenieure entlassen werden und stattdessen 20.000 Dollar pro Woche für Claude-Token ausgegeben werden
- Dieses Geld fließt letztlich in die Kassen großer Infrastrukturunternehmen wie Amazon und Microsoft
- LLMs gelten als „perfekte Arbeitskräfte“ ohne Gewerkschaft, ohne Pausen und ohne Lohnforderungen
- Dadurch könnte sich die Konzentration von Kapital und Macht weiter verschärfen
UBI und die Realität
- KI-Beschleuniger behaupten, KI werde Wohlstand bringen und alle würden über UBI profitieren
- Doch Google, Amazon, Meta und Microsoft sind berüchtigt für Steuervermeidung und Unterdrückung von Arbeitnehmern
- Selbst OpenAI ist von einer Non-Profit- zu einer gewinnorientierten Struktur übergegangen
- Daher ist es unwahrscheinlich, dass KI-Unternehmen freiwillig die Finanzierung für UBI bereitstellen
- Erst bei massiver Arbeitslosigkeit könnte öffentliche Unterstützung für höhere Steuern entstehen
- Allerdings hat sich in den USA die Einkommensungleichheit seit 40 Jahren verschärft, und der Widerstand gegen progressive Besteuerung ist stark
Fazit
- KI und Automatisierung könnten Arbeitsstrukturen, technische Fähigkeiten und die Verteilung von Kapital grundlegend neu ordnen
- Doch der aktuelle Trend birgt ein hohes Risiko, zu Vermögenskonzentration und einer Schwächung menschlicher Fähigkeiten zu führen, weshalb soziale Puffer und eine vorsichtige Steuerung des Tempos nötig sind
1 Kommentare
Hacker-News-Kommentare
Was ich gerade mit Interesse beobachte, ist die Frage, ob wir am Anfang einer exponentiellen Explosion stehen oder eher nahe am Gipfel einer sigmoidalen Kurve
Es scheint schwer vorstellbar, dass LLMs 10-mal besser werden als heute, aber jemand könnte eine neue Architektur vorstellen und mit denselben Ressourcen die 10-fache Effizienz erzielen
Wenn wir uns am oberen Ende der Sigmoidkurve befinden, dann gäbe es etwa zehn Jahre Anpassungszeit, in denen wir die Grenzen von AI klar verstehen würden
Wenn wir dagegen noch ganz am Anfang der Kurve stehen, könnte das bald der Beginn der Singularität (singularity) sein. Die Singularität in ihrer ursprünglichen Bedeutung ist einfach die Beobachtung eines „Punktes, nach dem man nicht mehr vorhersagen kann, was kommt“
Es gibt keinen Grund zu glauben, dass eine bestimmte Technologie exponentiell wächst, aber wenn mehrere Sigmoidkurven in schneller Folge auftreten, würde sich das für Menschen fast exponentiell anfühlen
Ehrlich gesagt weiß ich nicht, ob das mathematisch vollkommen korrekt ist, aber es fühlt sich so an, als würden diese Veränderungen sehr schnell auf Menschen zukommen
Auch ohne Superintelligenz gibt es bereits genug technologischen Fortschritt, um die Wirtschaft zu erschüttern. Es fehlt bislang nur an ausreichender Adoption
Aktuelle LLMs haben Engpässe bei Abstraktion und beim Entwurf von Code-Strukturen. Deshalb stoßen Ansätze wie „vibe coding“ an Grenzen
Sie sind hervorragend darin, menschliche Intentionen zu verstehen, aber schwach bei Volition und Zustandsrepräsentation (state representation), weshalb sie bei kreativem Problemlösen verwundbar sind
Es gibt spezialisierte Modelle für Proteinfaltung, Beweisführung und Spiele, aber LLMs selbst sind noch nicht auf einem Niveau, das die AI-Forschung voranbringt
Selbst wenn die Modellentwicklung stoppt, bleibt noch ein Capability-Overhang ungenutzter Möglichkeiten, den man über Jahrzehnte erforschen kann
Wer 2023 gesehen hat, wie ChatGPT fehlerhaften Code korrigiert, konnte die „Agenten-Revolution“ eigentlich schon erahnen
Deshalb besteht die aktuelle Kurve nicht aus einer einzigen, sondern aus der Summe mehrerer miteinander verflochtener Kurven
Die Leistungsfähigkeit von AI zeigt gegenüber Ressourcen (Compute und Daten) logarithmisches Wachstum
Sogar Sam Altman hat das in seinem Blog anerkannt
In der Praxis führt selbst exponentiell steigender Ressourceneinsatz nur zu einem Wachstum, das fast linear wirkt
Ich empfehle, sich die Aufnahme des Air-France-447-Unfalls anzuhören
Sie ist ein erschütterndes Beispiel dafür, wie schnell Dinge schieflaufen können, und auch für Diskussionen über AI-Risiken relevant
Der Kapitän verstand die Lage erst in den letzten zehn Sekunden, da war es aber bereits zu spät
Damals gab es wegen eines Problems im Design der Mittelung von Eingabewerten nur Warnleuchten, und heute wäre das vermutlich ein großer Skandal in den sozialen Medien
Die Antwort ist immer dieselbe — berufsständische Selbstregulierung und Gewerkschaften
Regulierte Berufe verstehen, dass Arbeitsplatzsicherheit und Lebensqualität wichtiger sind als Automatisierung
Softwareingenieure dagegen haben sich ihr Grab gewissermaßen selbst geschaufelt
Siehe Link zum Artikel aus dem Gesundheitswesen
In einer Baukrise findet zum Beispiel selbst ein Eisenflechter keine Aufträge. Am Ende ist Networking entscheidend
Softwareingenieure befinden sich heute in einer ähnlichen Lage
Allerdings scheint der Link zu fehlen
Menschen vergöttern oder verteufeln „CEOs“ oft, als wären sie außerirdische Lebensformen
Es gibt gute CEOs und schlechte CEOs. Wenn man selbst einmal ein Unternehmen gegründet hat, versteht man den Unterschied
Ich sehe das oft in Mentoring-Programmen, und man muss dieses Denkmuster aufbrechen, um bessere Unternehmen auswählen zu können
Die Artikelserie von aphyr ist wirklich nützlich
Sie fasst den Kern der AI-Diskussion sehr gut zusammen, sodass man alles auf einen Blick erfassen kann, ohne in Informationsmüdigkeit zu verfallen
Ich arbeite derzeit als Solo-Entwickler
Früher hatte ich ein Team, aber jetzt bin ich allein, und das ist psychisch belastend
Immer wenn Claude oder Codex Code schnell fertigstellen, frage ich mich, ob ich jetzt auch die Aufgaben übernehmen muss, die früher Kollegen gemacht haben — Produktdesign, DevOps, Betrieb
Dadurch werden die Arbeitstage länger und das Gefühl der Isolation stärker
Früher war es trotz aller Härte noch möglich, Arbeit und Leben auszubalancieren, aber jetzt zerbricht das Gleichgewicht zwischen Qualität und Glück
Besonders eindrucksvoll fand ich in aphyrs Text den Teil über die Ironies of Automation
Branchen wie Luftfahrt, Kernenergie und Telechirurgie beschäftigen sich schon seit Jahrzehnten mit den Problemen der Automatisierung
Die Luftfahrt hat zum Beispiel über CRM/SRM betriebliche Verfahren auf Team- und Individualebene weiterentwickelt, und Chirurgen verhindern De-Skilling durch Simulatortraining
Die heutige AI-Industrie geht einen ähnlichen Weg. Im schwach regulierten US-Markt wird es zwar vorhersehbare Ergebnisse geben, aber letztlich braucht es neue operative Frameworks
Aber der Text wurde zu lang, daher habe ich einiges weggelassen
Kyles Texte zu lesen, ist immer ein Vergnügen
Allerdings scheint er sich bewusst zurückzuhalten, wenn es um die Zukunft einer Konzentration von Wohlstand und Szenarien des Bevölkerungsrückgangs geht
Ich stimme der Aussage zu, dass „Automatisierung Fähigkeiten abbaut“
Auch ich merke in letzter Zeit, dass meine Fähigkeit zur Orientierung durch die Abhängigkeit von Google Maps schlechter geworden ist
Früher reichte es, eine Strecke etwa dreimal zu fahren, und ich hatte sie im Kopf, aber heute erinnere ich mich ohne Karte nicht mehr daran
Zum Glück sind alte Erinnerungen geblieben, aber neue Routen werden kaum noch abgespeichert
Wenn man sich auf Geschriebenes stützt, erinnert man sich nicht mehr selbst, sondern verlässt sich auf äußere Zeichen
Programmieren fühlt sich heutzutage wirklich wie Magie (witchcraft) an
Ich habe gerade Soteria, die griechische Göttin der Sicherheit, als meine Datenbankadministratorin (DBA) engagiert