13 Punkte von GN⁺ 2026-03-08 | 1 Kommentare | Auf WhatsApp teilen
  • Am stärksten bedroht AI nicht Geringverdiener, sondern Berufe mit hoher Bildung und hohem Einkommen: Die Auswirkungen von AI treffen nicht zuerst „einfache Jobs“, sondern zunächst „gute Jobs"
  • Programmierer sind der am stärksten exponierte Beruf auf Platz 1. Mit einer Coverage von 75 % liegen sie unter allen Berufsgruppen an der Spitze – paradoxerweise sind es ausgerechnet Entwickler selbst, die Coding-Agenten am häufigsten nutzen
  • Noch wird niemand wegen AI entlassen, aber die Tür für Berufseinsteiger schließt sich leise: AI ersetzt Menschen nicht durch Entlassungen bestehender Mitarbeiter, sondern dadurch, dass weniger neu eingestellt wird
  • Der Großteil der Aufgaben, die AI theoretisch ersetzen könnte, wird bislang noch nicht ersetzt: Bei Computer-&-Mathematik-Berufen liegt die theoretische Coverage bei 94 %, real sind es jedoch nur 33 %. Das ist zugleich eine Warnung, wie viel Raum für weitere Verdrängung noch besteht
  • Frauen und Hochqualifizierte sind stärker dem Risiko einer AI-Substitution ausgesetzt, der Frauenanteil liegt um 16 Prozentpunkte höher. Oft wird angenommen, AI bedrohe vor allem „männliche Blue-Collar-Jobs“, doch die Daten zeigen das Gegenteil

Zentrale Erkenntnisse (Key Findings)

  • „Observed Exposure“ ist ein Indikator, der die Nutzung von Aufgaben im Sinne von Automatisierung misst, indem er das theoretische Potenzial von LLMs mit realen Nutzungsdaten kombiniert
    • Automatisierte Nutzung und arbeitsbezogene Nutzung werden stärker gewichtet
  • Die tatsächliche AI-Nutzung ist nur ein Teil des theoretisch Möglichen, der Anteil tatsächlich genutzter Aufgaben unter den von AI ausführbaren Aufgaben ist niedrig
  • Je höher die Exponiertheit eines Berufs, desto niedriger fällt die vom US Bureau of Labor Statistics (BLS) prognostizierte Beschäftigungswachstumsrate bis 2034 aus
  • Beschäftigte in hoch exponierten Berufen sind im Durchschnitt häufiger Frauen, höher gebildet, besser bezahlt und älter
  • Seit Ende 2022 gibt es keine Hinweise auf einen systematischen Anstieg der Arbeitslosigkeit, allerdings wird eine Abschwächung bei Neueinstellungen junger Menschen beobachtet

Forschungshintergrund und Zielsetzung

  • Zwar nimmt die Forschung zur Messung und Vorhersage der Auswirkungen von AI auf den Arbeitsmarkt stark zu, die Vorhersagegenauigkeit früherer Ansätze hatte jedoch Grenzen
    • Ein typisches Beispiel ist, dass etwa 25 % der als offshoring-gefährdet eingestuften Jobs auch zehn Jahre später noch ein robustes Beschäftigungswachstum zeigten
    • Studien zu den Beschäftigungseffekten von Industrierobotern kommen zu widersprüchlichen Ergebnissen, und auch das Ausmaß der Arbeitsplatzverluste durch den China-Handelsschock ist weiterhin umstritten
  • Ziel dieser Studie ist es, einen Ansatz zur Messung der Beschäftigungseffekte von AI zu etablieren und die Analyse regelmäßig zu aktualisieren, sobald neue Daten verfügbar sind
  • Indem der Framework aufgebaut wird, bevor die Auswirkungen von AI eindeutig sichtbar werden, lassen sich wirtschaftliche Verwerfungen verlässlicher identifizieren als mit nachträglicher Analyse

Kausalinferenz und Vergleichsmaßstäbe (Counterfactuals)

  • Bei starken und abrupten Effekten wie bei COVID-19 ist Kausalinferenz einfach, doch die Auswirkungen von AI könnten – ähnlich wie bei der Verbreitung des Internets oder dem China-Handelsschock – in aggregierten Daten nicht sofort sichtbar werden
  • Ein gängiger Ansatz besteht darin, die Ergebnisse von Berufen mit hoher und niedriger AI-Exponiertheit zu vergleichen, um den AI-Effekt von Störvariablen zu trennen
  • Auch diese Studie folgt einem taskbasierten Ansatz und aggregiert auf Berufsebene, indem sie theoretische AI-Fähigkeiten mit realen Nutzungsdaten kombiniert

Methode zur Messung der Exponiertheit

  • Es werden drei Datenquellen kombiniert:
    • O*NET-Datenbank: Listen von Arbeitstätigkeiten für rund 800 Berufe in den USA
    • Reale Claude-Nutzungsdaten auf Basis des Anthropic Economic Index
    • Theoretische taskbezogene Expositionsschätzungen (β) aus Eloundou et al. (2023): Wenn ein LLM die Geschwindigkeit einer Aufgabe um mehr als das Doppelte erhöhen kann, dann 1; wenn zusätzliche Tools nötig sind, 0,5; wenn unmöglich, 0
  • Gründe dafür, dass theoretisch mögliche Aufgaben in der realen Nutzung nicht auftauchen, sind unter anderem Modellgrenzen, rechtliche Einschränkungen, Software-Anforderungen und menschliche Prüfschritte
    • Beispiel: „Verschreibungsinformationen an eine Apotheke übermitteln und die erneute Verschreibung eines Medikaments genehmigen“ hat theoretisch β=1, wird aber in der realen Claude-Nutzung nicht beobachtet
  • Theoretische Exponiertheit und reale Nutzung sind stark korreliert; 97 % der in den vorherigen vier Economic-Index-Berichten beobachteten Aufgaben fallen in die Kategorien β=0,5 oder β=1

Kennzahl „Observed Exposure“

  • Observed Exposure quantifiziert den Anteil der Aufgaben, bei denen LLMs theoretisch die Geschwindigkeit erhöhen könnten und die in realen Arbeitsumgebungen tatsächlich in automatisierter Form genutzt werden
  • Die Exponiertheit eines Berufs steigt, wenn:
    • die betreffende Aufgabe theoretisch mit AI möglich ist und im Anthropic Economic Index eine signifikante Nutzungshäufigkeit zeigt
    • sie in einem arbeitsbezogenen Kontext verwendet wird
    • der Automatisierungsanteil hoch ist oder die Implementierung über APIs erfolgt (Automatisierung mit voller Gewichtung, augmentative Nutzung mit halber Gewichtung)
    • der Anteil der von AI beeinflussten Aufgaben an der Gesamtrolle groß ist
  • Die Lücke zwischen theoretischer Coverage (blau) und real beobachteter Exponiertheit (rot) ist groß; AI bleibt deutlich hinter ihren theoretischen Fähigkeiten zurück
    • Computer-&-Mathematik-Berufe: theoretische Coverage 94 %, reale Coverage 33 %
    • Office-&-Admin-Berufe: theoretische Coverage 90 %

Berufe mit der höchsten Exponiertheit

  • Top 3 unter den 10 Berufen mit der höchsten observed exposure:
    • Computer Programmers: Coverage 75 % (Claude wird breit für Coding genutzt)
    • Customer Service Representatives: Wichtige Aufgaben im 1st-party-API-Traffic nehmen zu
    • Data Entry Keyers: Bei zentralen Aufgaben wie dem Lesen von Quelldokumenten und der Dateneingabe ist Automatisierung besonders ausgeprägt, Coverage 67 %
  • 30 % aller Beschäftigten haben eine Coverage von 0, weil ihre Aufgaben den Mindestschwellenwert nicht erreichen
    • Beispiele in dieser Gruppe: Köche, Motorradmechaniker, Rettungsschwimmer, Barkeeper, Spüler, Garderobenpersonal

Zusammenhang zwischen Exponiertheit und BLS-Beschäftigungsprognosen

  • Beim Vergleich der BLS-Prognosen zum Beschäftigungswachstum 2024–2034 nach Beruf mit der observed exposure zeigt sich: Je höher die Exponiertheit, desto schwächer die Wachstumsaussichten
  • Steigt die Coverage um 10 Prozentpunkte, sinkt die BLS-Wachstumsprognose um 0,6 Prozentpunkte (auf Basis einer nach Beschäftigungsniveau gewichteten Regression)
  • Mit dem theoretischen β-Indikator aus Eloundou et al. allein zeigt sich diese Korrelation nicht → das deutet darauf hin, dass observed exposure unabhängig davon der wirksamere Prognoseindikator ist

Demografische Merkmale von Beschäftigten in hoch exponierten Berufen

  • Vergleich zwischen der Gruppe mit den obersten 25 % Exponiertheit und der Gruppe mit 0 % Exponiertheit kurz vor dem Start von ChatGPT (August bis Oktober 2022):
    • In der hoch exponierten Gruppe ist die Wahrscheinlichkeit, weiblich zu sein, um 16 Prozentpunkte höher
    • Die Wahrscheinlichkeit, weiß zu sein, ist um 11 Prozentpunkte höher, die Wahrscheinlichkeit, asiatisch zu sein, etwa doppelt so hoch
    • Der Durchschnittslohn ist 47 % höher
    • Anteil mit abgeschlossenem Graduiertenstudium: nicht exponierte Gruppe 4,5 % vs. hoch exponierte Gruppe 17,4 % (rund vierfacher Unterschied)

Ergebnisse der Arbeitslosenanalyse

  • Arbeitslosenquote wurde als primärer Indikator gewählt, weil sie am direktesten den Zustand erfasst, in dem Menschen arbeiten wollen, aber keinen Job finden
  • Seit 2016 zeigt der Verlauf der Arbeitslosenquote, dass während COVID-19 die Arbeitslosigkeit in der nicht exponierten Gruppe (mit hohem Anteil an Präsenzberufen) deutlich stärker anstieg
  • Nach dem Start von ChatGPT ist die Veränderung der Arbeitslosenquote in der hoch exponierten Gruppe statistisch nicht signifikant (sie stieg leicht, ist aber nicht von null zu unterscheiden)
  • Beispiele für mit diesem Framework erkennbare Szenarien:
    • Wenn die obersten 10 % vollständig entlassen würden, stiege die Arbeitslosenquote dieser Gruppe von 3 % auf 43 %, die Gesamtarbeitslosenquote von 4 % auf 13 %
    • Auch ein Szenario einer „White-Collar-Depression“ (Arbeitslosenquote der obersten 25 % verdoppelt sich von 3 % auf 6 %) wäre mit dieser Analyse erkennbar

Anzeichen einer Verlangsamung bei Neueinstellungen junger Menschen

  • Brynjolfsson et al. (2025) analysieren, dass die Beschäftigung junger Arbeitskräfte im Alter von 22 bis 25 Jahren in hoch exponierten Berufen um 6–16 % gesunken ist und dies vor allem auf weniger Neueinstellungen statt auf mehr Entlassungen zurückgeht
  • In dieser Studie bleibt die Arbeitslosenquote junger Menschen in hoch exponierten Berufen selbst flach
    • Rückgänge bei Neueinstellungen müssen sich nicht in der Arbeitslosenquote zeigen: Viele junge Neueinsteiger melden im CPS keinen Beruf an oder verlassen den Arbeitsmarkt ganz
  • Mithilfe von CPS-Paneldaten wird die Neueinstellungsquote von 22- bis 25-Jährigen getrennt nach hoch und niedrig exponierten Berufen verfolgt
    • Ab 2024 beginnt die Eintrittsquote in hoch exponierte Berufe sichtbar zu sinken
    • Die monatliche Beschäftigungsquote in niedrig exponierten Berufen bleibt mit 2 % stabil, während die Eintrittsquote in hoch exponierte Berufe um etwa 0,5 Prozentpunkte sinkt
    • Durchschnittliche Schätzung für die Zeit nach ChatGPT: Beschäftigungsquote in hoch exponierten Berufen 14 % niedriger als 2022 (statistisch nur knapp signifikant)
    • Bei Arbeitskräften über 25 Jahren wird ein solcher Rückgang nicht beobachtet
  • Es gibt allerdings auch alternative Interpretationen: Junge Menschen, die nicht eingestellt wurden, könnten in ihren bisherigen Jobs geblieben sein, andere Berufe gewählt oder ins Studium zurückgekehrt sein

Grenzen der Studie und weitere Pläne

  • Der aktuell verwendete Indikator aus Eloundou et al. muss auf Basis der LLM-Fähigkeiten von Anfang 2023 aktualisiert werden
  • Künftig soll die Entwicklung der task- und berufsbezogenen Coverage durch fortlaufende Einbeziehung von Claude-Nutzungsdaten aktualisiert werden
  • Eine zentrale Anschlussfrage ist, wie sich frische Absolventen mit Abschlüssen in hoch exponierten Bereichen auf dem Arbeitsmarkt behaupten
  • Dieses Framework lässt sich auch auf andere Nutzungsdaten und den Kontext anderer Länder ausweiten

1 Kommentare

 
GN⁺ 2026-03-08
Hacker-News-Kommentare
  • Ich habe die letzten 10 Jahre bei Big Tech gearbeitet und vor einem Monat gekündigt
    Seit ich außerhalb eines Unternehmens arbeite, fühlt es sich an, als wäre meine Produktivität 50-mal höher
    Wenn man sich den Einfluss von AI auf die Produktivität ansieht, sind LLMs stark bei (1) dem Schreiben von Boilerplate-Code, (2) der Code-Konvertierung zwischen Sprachen, (3) dem Erlernen und Zusammenfassen neuer Konzepte und (4) einfachen Aufgaben wie Dokumentation
    In Großunternehmen kommt so etwas aber nicht oft vor. Die meiste Zeit geht für Meetings und Systemintegration drauf
    Wirklich geholfen hat AI nur bei Hackathons. Ansonsten hat sie eher mehr Arbeit verursacht
    Wenn ich dagegen unabhängig arbeite, spüre ich bei allen vier Punkten deutliche Produktivitätssteigerungen. Auch die Sorge um rechtliche Probleme oder Deployment-Bugs ist geringer
    Am Ende kann AI je nachdem, wer sie nutzt, ein Game Changer sein oder eben nicht

    • Unser Unternehmen nutzt AI für fast alle internen Aufgaben
      Aber wenn man AI root access auf das eigene Leben gibt, bleibt nur Enttäuschung. AI braucht immer die Kontrolle durch einen Architekten
      Ich lasse AI E-Mails formulieren, aber ich verschicke sie selbst. Ich erlaube Datenzugriff, treffe die endgültige Entscheidung aber selbst
      Dank der Lehren aus der MongoDB-Zeit gehe ich bei neuer Technologie vorsichtig vor. Derzeit baue ich selbst Wrapper in Elixir und Automatisierungen mit dem Ash framework und Phoenix
      Ich nutze mehrere Modelle parallel, damit kein einzelnes Unternehmen alle meine Daten kennt. Die eigentliche Herausforderung ist Privatsphäre
    • Aus Sicht von jemandem, der als Startup-Gründer und frühes Teammitglied gearbeitet hat: Menschen, die nur FAANG-Erfahrung haben, kennen die eigentumsbasierte Produktivität kleiner Teams oft nicht gut
    • Ich verlasse mich auch am meisten auf (1) und (3). LLMs sind eine Art verbessertes Stack Overflow
      In Großunternehmen macht das Schreiben von Code aber nur etwa 20 % der Arbeit aus, die übrigen 80 % bleiben also weiterhin der Flaschenhals
    • Letztlich entstehen die Koordinationskosten als Flaschenhals, je größer eine Organisation wird
    • Interessant, aber ich frage mich, ob damit Geld verdient wird. Wenn nicht, ist das nur Produktivität als Hobby und schwer als Produktivität des Arbeitsmarkts zu bezeichnen
  • Ich würde die Leute, die sagen, sie spürten keinen Produktivitätsschub durch AI, gern fragen: Wo genau hakt es?
    Ich habe meinen Workflow in einem früheren Kommentar beschrieben und selbst in einer Legacy-Codebasis die Zahl der Schritte halbiert
    Inzwischen schreibe ich fast keinen Code mehr selbst, sondern prüfe nur noch die von LLMs vorgeschlagenen Änderungen. Die Ergebnisse sind beängstigend gut

    • Unternehmen, die Leute entlassen, haben keine Vision. Unsere Non-Profit-Organisation stellt eher ein
      Wenn Arbeit schneller geht, macht man eben mehr davon. Wir geben die Erträge an die Gemeinschaft zurück und schaffen echten Wert
    • LLMs sind nützlich für Boilerplate-Code oder um in einer unbekannten Codebasis einen Einstiegspunkt zu finden
      Bei komplexem Code führen sie aber eher zu Qualitätsverlust. Wenn man wartbaren Code will, macht man es besser selbst
    • Ich habe in diesem Release Features mit Claude Code und Codex umgesetzt, und das führte zu einer Bug-Explosion
      Die erste Implementierung ging schnell, aber die Debugging-Phase wird vermutlich deutlich länger dauern
    • Ich habe AI mit dem Aufräumen von Feature Flags beauftragt, und sie brauchte 15 Minuten für etwas, das ein Mensch in 3 Minuten erledigt
      Sie ignorierte die Anweisungen und brachte das Code-Cleanup durcheinander, wodurch die Kosten am Ende 5-mal höher waren
      Trotzdem heißt es, dass sich seit Dezember viel verbessert hat, also werde ich es noch einmal versuchen
    • Die Ausfallquote ist zu hoch. Sobald man über simples CRUD hinausgeht, werden Halluzinationen und übermäßiges Code-Schreiben massiv
      Es bleibt auf dem Niveau eines Stack-Overflow-Ersatzes
  • Ich bin eher für Betrieb und Wartung zuständig als fürs Coden
    Bisher hatte AI fast keinen Einfluss auf meine Arbeit. Docker hat für mich viel mehr verändert

    • AI ist auf dem Niveau einer früher guten Suchmaschine. In der Spieleentwicklung ist sie fast nutzlos
      Sie erstellt selbst grundlegende Funktionen falsch, und logische Fehler kommen häufig vor
    • Im Operations-Bereich ist es ähnlich. E-Mails schreibt AI zwar, aber der gesamte Prozess bleibt derselbe
      Technologien wie Cloud, Terraform und Ansible haben viel größere Veränderungen gebracht
    • Das ähnelt dem Productivity Paradox der 80er Jahre
      Wie im Wikipedia-Artikel zu sehen ist, ist es eine Phase, in der die Technologie sichtbar ist, aber noch nicht in der Statistik auftaucht
    • Unser Unternehmen ist durch die Einführung von AI an einem Punkt, an dem ein 6-Monats-Roadmap in wenigen Wochen erledigt wird
      Inzwischen wird sogar darüber nachgedacht, PMs und Engineering Manager zu reduzieren. In 35 Berufsjahren ist das die größte Veränderung, die ich erlebt habe
    • Auch meine Produktivität ist gestiegen, aber zugleich auch die Erschöpfung
      Weil wir eine kleine NGO sind, erledigen wir dank AI mit demselben Budget mehr Arbeit. Dadurch haben sich auch Lerngeschwindigkeit und Qualität verbessert
      Aber die Arbeitsmenge sinkt nicht. Im Gegenteil, man macht eher noch mehr
  • Als Entwickler hat sich meine Produktivität verdoppelt, aber das Arbeitspensum bleibt gleich
    Gleichzeitig steigen die Erwartungen, sodass am Ende nur der Zeitplan komprimiert wird

    • Das erinnert mich an das Zitat aus dem Radsport: „Es wird nie leichter, nur schneller“
    • AI nimmt einem die Arbeit nicht ab, sondern ersetzt stattdessen einen Kollegen
    • Entwicklung war dem Backlog und der technischen Schuld noch nie voraus
    • Als verwandtes Konzept siehe Jevons Paradox
    • Das Ziel ist immer, in der gegebenen Zeit so viel wie möglich zu schaffen
  • Das aktuelle Projekt hat ein Ausmaß, das ich ohne AI nicht einmal versucht hätte
    Trotzdem vertraue ich der Ausgabe von LLMs noch immer nicht vollständig. Selbst SwiftLint auszuführen, macht mir Sorgen
    Trotzdem ist die Projekttempo enorm gestiegen. Was früher 2 Jahre gedauert hätte, ist in einem Monat schon zu mehr als der Hälfte fertig

    • Ich bin ein vibe-coder und habe bereits mehrere Apps veröffentlicht, die nur ich selbst nutze. Allein ist das durchaus machbar
    • Ich vertraue LLMs auch nicht vollständig. Deshalb bevorzuge ich UX wie bei Cursor, wo ich Diffs direkt prüfen kann
    • Ich frage mich, warum du keine Hook-Automatisierung nutzt, damit der Code den Linter besteht
  • Ich glaube nicht, dass der tatsächliche Einfluss von AI so groß ist
    Wer AI gut nutzt, ist vielleicht etwas produktiver, aber wenn man das zeigt, bekommt man 10-mal mehr Arbeit
    Die wirkliche Veränderung betrifft Indie-Entwickler oder Freelancer

    • Unternehmen stoppen Einstellungen und erhöhen nur das Token-Budget, aber die Wirkung ist unklar
    • Wenn wirklich alle 10-mal produktiver wären, müsste es native Apps statt Electron geben. Die Realität sieht anders aus
    • Ich möchte die Zahlenentwicklung nach Dezember 2025 sehen
  • Ich vertraue den Aussagen von Unternehmen, die AI-Produkte verkaufen, nicht

    • Es ist lächerlich, dass sie neue Kennzahlen erfinden, die die langfristigen Aussichten ihres eigenen Produkts aufblähen
    • Sie zielen auf einen IPO ab
    • Am Ende läuft solche Technologie nicht auf die breite Öffentlichkeit hinaus, sondern auf ein Werkzeug für unternehmerische Entscheidungen
  • Ein Kollege aus dem Marketing erledigt mit dem von der Firma freigegebenen LLM (Gemini) nur Schein-Arbeit,
    die echte Arbeit macht er mit seinem privaten Claude-Account
    Der Grund ist die Angst, dass das Unternehmen die Prompts sammelt und damit ein Modell trainiert, das ihn ersetzt

    • Tatsächlich ist es aber wahrscheinlicher, dass ein privater Account fürs Training verwendet wird. Wenn es kein vollständig bezahlter Account ist, kann man das Prompt-Training nicht deaktivieren
  • Das Unternehmen hat Junior-Einstellungen gestoppt
    Inzwischen ist es effizienter, die Aufgaben, die sie früher erledigt haben, an AI zu geben
    Das ist aber nur eine vorübergehende Anpassungsphase. Wenn sich die Form von Expertise verändert, wird wieder eingestellt werden

    • Eigentlich wäre es sinnvoller, mehr kostengünstige Juniors einzustellen, die gut mit AI umgehen können
      Das Problem ist nicht AI, sondern makroökonomische Faktoren wie die Erlösstruktur
  • Ich frage mich, ob der Einfluss nicht einfach nur aus der Häufigkeit des Auftauchens in Claude-Logs geschätzt wurde
    Das wäre so, als würde ein Schlangenölverkäufer seine eigenen Kunden befragen und dann behaupten, man brauche „keine Ärzte“
    Die Dateninterpretation steht auf einer völlig verzerrten Prämisse