- Am stärksten bedroht AI nicht Geringverdiener, sondern Berufe mit hoher Bildung und hohem Einkommen: Die Auswirkungen von AI treffen nicht zuerst „einfache Jobs“, sondern zunächst „gute Jobs"
- Programmierer sind der am stärksten exponierte Beruf auf Platz 1. Mit einer Coverage von 75 % liegen sie unter allen Berufsgruppen an der Spitze – paradoxerweise sind es ausgerechnet Entwickler selbst, die Coding-Agenten am häufigsten nutzen
- Noch wird niemand wegen AI entlassen, aber die Tür für Berufseinsteiger schließt sich leise: AI ersetzt Menschen nicht durch Entlassungen bestehender Mitarbeiter, sondern dadurch, dass weniger neu eingestellt wird
- Der Großteil der Aufgaben, die AI theoretisch ersetzen könnte, wird bislang noch nicht ersetzt: Bei Computer-&-Mathematik-Berufen liegt die theoretische Coverage bei 94 %, real sind es jedoch nur 33 %. Das ist zugleich eine Warnung, wie viel Raum für weitere Verdrängung noch besteht
- Frauen und Hochqualifizierte sind stärker dem Risiko einer AI-Substitution ausgesetzt, der Frauenanteil liegt um 16 Prozentpunkte höher. Oft wird angenommen, AI bedrohe vor allem „männliche Blue-Collar-Jobs“, doch die Daten zeigen das Gegenteil
Zentrale Erkenntnisse (Key Findings)
- „Observed Exposure“ ist ein Indikator, der die Nutzung von Aufgaben im Sinne von Automatisierung misst, indem er das theoretische Potenzial von LLMs mit realen Nutzungsdaten kombiniert
- Automatisierte Nutzung und arbeitsbezogene Nutzung werden stärker gewichtet
- Die tatsächliche AI-Nutzung ist nur ein Teil des theoretisch Möglichen, der Anteil tatsächlich genutzter Aufgaben unter den von AI ausführbaren Aufgaben ist niedrig
- Je höher die Exponiertheit eines Berufs, desto niedriger fällt die vom US Bureau of Labor Statistics (BLS) prognostizierte Beschäftigungswachstumsrate bis 2034 aus
- Beschäftigte in hoch exponierten Berufen sind im Durchschnitt häufiger Frauen, höher gebildet, besser bezahlt und älter
- Seit Ende 2022 gibt es keine Hinweise auf einen systematischen Anstieg der Arbeitslosigkeit, allerdings wird eine Abschwächung bei Neueinstellungen junger Menschen beobachtet
Forschungshintergrund und Zielsetzung
- Zwar nimmt die Forschung zur Messung und Vorhersage der Auswirkungen von AI auf den Arbeitsmarkt stark zu, die Vorhersagegenauigkeit früherer Ansätze hatte jedoch Grenzen
- Ein typisches Beispiel ist, dass etwa 25 % der als offshoring-gefährdet eingestuften Jobs auch zehn Jahre später noch ein robustes Beschäftigungswachstum zeigten
- Studien zu den Beschäftigungseffekten von Industrierobotern kommen zu widersprüchlichen Ergebnissen, und auch das Ausmaß der Arbeitsplatzverluste durch den China-Handelsschock ist weiterhin umstritten
- Ziel dieser Studie ist es, einen Ansatz zur Messung der Beschäftigungseffekte von AI zu etablieren und die Analyse regelmäßig zu aktualisieren, sobald neue Daten verfügbar sind
- Indem der Framework aufgebaut wird, bevor die Auswirkungen von AI eindeutig sichtbar werden, lassen sich wirtschaftliche Verwerfungen verlässlicher identifizieren als mit nachträglicher Analyse
Kausalinferenz und Vergleichsmaßstäbe (Counterfactuals)
- Bei starken und abrupten Effekten wie bei COVID-19 ist Kausalinferenz einfach, doch die Auswirkungen von AI könnten – ähnlich wie bei der Verbreitung des Internets oder dem China-Handelsschock – in aggregierten Daten nicht sofort sichtbar werden
- Ein gängiger Ansatz besteht darin, die Ergebnisse von Berufen mit hoher und niedriger AI-Exponiertheit zu vergleichen, um den AI-Effekt von Störvariablen zu trennen
- Auch diese Studie folgt einem taskbasierten Ansatz und aggregiert auf Berufsebene, indem sie theoretische AI-Fähigkeiten mit realen Nutzungsdaten kombiniert
Methode zur Messung der Exponiertheit
- Es werden drei Datenquellen kombiniert:
- O*NET-Datenbank: Listen von Arbeitstätigkeiten für rund 800 Berufe in den USA
- Reale Claude-Nutzungsdaten auf Basis des Anthropic Economic Index
- Theoretische taskbezogene Expositionsschätzungen (β) aus Eloundou et al. (2023): Wenn ein LLM die Geschwindigkeit einer Aufgabe um mehr als das Doppelte erhöhen kann, dann 1; wenn zusätzliche Tools nötig sind, 0,5; wenn unmöglich, 0
- Gründe dafür, dass theoretisch mögliche Aufgaben in der realen Nutzung nicht auftauchen, sind unter anderem Modellgrenzen, rechtliche Einschränkungen, Software-Anforderungen und menschliche Prüfschritte
- Beispiel: „Verschreibungsinformationen an eine Apotheke übermitteln und die erneute Verschreibung eines Medikaments genehmigen“ hat theoretisch β=1, wird aber in der realen Claude-Nutzung nicht beobachtet
- Theoretische Exponiertheit und reale Nutzung sind stark korreliert; 97 % der in den vorherigen vier Economic-Index-Berichten beobachteten Aufgaben fallen in die Kategorien β=0,5 oder β=1
Kennzahl „Observed Exposure“
- Observed Exposure quantifiziert den Anteil der Aufgaben, bei denen LLMs theoretisch die Geschwindigkeit erhöhen könnten und die in realen Arbeitsumgebungen tatsächlich in automatisierter Form genutzt werden
- Die Exponiertheit eines Berufs steigt, wenn:
- die betreffende Aufgabe theoretisch mit AI möglich ist und im Anthropic Economic Index eine signifikante Nutzungshäufigkeit zeigt
- sie in einem arbeitsbezogenen Kontext verwendet wird
- der Automatisierungsanteil hoch ist oder die Implementierung über APIs erfolgt (Automatisierung mit voller Gewichtung, augmentative Nutzung mit halber Gewichtung)
- der Anteil der von AI beeinflussten Aufgaben an der Gesamtrolle groß ist
- Die Lücke zwischen theoretischer Coverage (blau) und real beobachteter Exponiertheit (rot) ist groß; AI bleibt deutlich hinter ihren theoretischen Fähigkeiten zurück
- Computer-&-Mathematik-Berufe: theoretische Coverage 94 %, reale Coverage 33 %
- Office-&-Admin-Berufe: theoretische Coverage 90 %
Berufe mit der höchsten Exponiertheit
- Top 3 unter den 10 Berufen mit der höchsten observed exposure:
- Computer Programmers: Coverage 75 % (Claude wird breit für Coding genutzt)
- Customer Service Representatives: Wichtige Aufgaben im 1st-party-API-Traffic nehmen zu
- Data Entry Keyers: Bei zentralen Aufgaben wie dem Lesen von Quelldokumenten und der Dateneingabe ist Automatisierung besonders ausgeprägt, Coverage 67 %
- 30 % aller Beschäftigten haben eine Coverage von 0, weil ihre Aufgaben den Mindestschwellenwert nicht erreichen
- Beispiele in dieser Gruppe: Köche, Motorradmechaniker, Rettungsschwimmer, Barkeeper, Spüler, Garderobenpersonal
Zusammenhang zwischen Exponiertheit und BLS-Beschäftigungsprognosen
- Beim Vergleich der BLS-Prognosen zum Beschäftigungswachstum 2024–2034 nach Beruf mit der observed exposure zeigt sich: Je höher die Exponiertheit, desto schwächer die Wachstumsaussichten
- Steigt die Coverage um 10 Prozentpunkte, sinkt die BLS-Wachstumsprognose um 0,6 Prozentpunkte (auf Basis einer nach Beschäftigungsniveau gewichteten Regression)
- Mit dem theoretischen β-Indikator aus Eloundou et al. allein zeigt sich diese Korrelation nicht → das deutet darauf hin, dass observed exposure unabhängig davon der wirksamere Prognoseindikator ist
Demografische Merkmale von Beschäftigten in hoch exponierten Berufen
- Vergleich zwischen der Gruppe mit den obersten 25 % Exponiertheit und der Gruppe mit 0 % Exponiertheit kurz vor dem Start von ChatGPT (August bis Oktober 2022):
- In der hoch exponierten Gruppe ist die Wahrscheinlichkeit, weiblich zu sein, um 16 Prozentpunkte höher
- Die Wahrscheinlichkeit, weiß zu sein, ist um 11 Prozentpunkte höher, die Wahrscheinlichkeit, asiatisch zu sein, etwa doppelt so hoch
- Der Durchschnittslohn ist 47 % höher
- Anteil mit abgeschlossenem Graduiertenstudium: nicht exponierte Gruppe 4,5 % vs. hoch exponierte Gruppe 17,4 % (rund vierfacher Unterschied)
Ergebnisse der Arbeitslosenanalyse
- Arbeitslosenquote wurde als primärer Indikator gewählt, weil sie am direktesten den Zustand erfasst, in dem Menschen arbeiten wollen, aber keinen Job finden
- Seit 2016 zeigt der Verlauf der Arbeitslosenquote, dass während COVID-19 die Arbeitslosigkeit in der nicht exponierten Gruppe (mit hohem Anteil an Präsenzberufen) deutlich stärker anstieg
- Nach dem Start von ChatGPT ist die Veränderung der Arbeitslosenquote in der hoch exponierten Gruppe statistisch nicht signifikant (sie stieg leicht, ist aber nicht von null zu unterscheiden)
- Beispiele für mit diesem Framework erkennbare Szenarien:
- Wenn die obersten 10 % vollständig entlassen würden, stiege die Arbeitslosenquote dieser Gruppe von 3 % auf 43 %, die Gesamtarbeitslosenquote von 4 % auf 13 %
- Auch ein Szenario einer „White-Collar-Depression“ (Arbeitslosenquote der obersten 25 % verdoppelt sich von 3 % auf 6 %) wäre mit dieser Analyse erkennbar
Anzeichen einer Verlangsamung bei Neueinstellungen junger Menschen
- Brynjolfsson et al. (2025) analysieren, dass die Beschäftigung junger Arbeitskräfte im Alter von 22 bis 25 Jahren in hoch exponierten Berufen um 6–16 % gesunken ist und dies vor allem auf weniger Neueinstellungen statt auf mehr Entlassungen zurückgeht
- In dieser Studie bleibt die Arbeitslosenquote junger Menschen in hoch exponierten Berufen selbst flach
- Rückgänge bei Neueinstellungen müssen sich nicht in der Arbeitslosenquote zeigen: Viele junge Neueinsteiger melden im CPS keinen Beruf an oder verlassen den Arbeitsmarkt ganz
- Mithilfe von CPS-Paneldaten wird die Neueinstellungsquote von 22- bis 25-Jährigen getrennt nach hoch und niedrig exponierten Berufen verfolgt
- Ab 2024 beginnt die Eintrittsquote in hoch exponierte Berufe sichtbar zu sinken
- Die monatliche Beschäftigungsquote in niedrig exponierten Berufen bleibt mit 2 % stabil, während die Eintrittsquote in hoch exponierte Berufe um etwa 0,5 Prozentpunkte sinkt
- Durchschnittliche Schätzung für die Zeit nach ChatGPT: Beschäftigungsquote in hoch exponierten Berufen 14 % niedriger als 2022 (statistisch nur knapp signifikant)
- Bei Arbeitskräften über 25 Jahren wird ein solcher Rückgang nicht beobachtet
- Es gibt allerdings auch alternative Interpretationen: Junge Menschen, die nicht eingestellt wurden, könnten in ihren bisherigen Jobs geblieben sein, andere Berufe gewählt oder ins Studium zurückgekehrt sein
Grenzen der Studie und weitere Pläne
- Der aktuell verwendete Indikator aus Eloundou et al. muss auf Basis der LLM-Fähigkeiten von Anfang 2023 aktualisiert werden
- Künftig soll die Entwicklung der task- und berufsbezogenen Coverage durch fortlaufende Einbeziehung von Claude-Nutzungsdaten aktualisiert werden
- Eine zentrale Anschlussfrage ist, wie sich frische Absolventen mit Abschlüssen in hoch exponierten Bereichen auf dem Arbeitsmarkt behaupten
- Dieses Framework lässt sich auch auf andere Nutzungsdaten und den Kontext anderer Länder ausweiten
1 Kommentare
Hacker-News-Kommentare
Ich habe die letzten 10 Jahre bei Big Tech gearbeitet und vor einem Monat gekündigt
Seit ich außerhalb eines Unternehmens arbeite, fühlt es sich an, als wäre meine Produktivität 50-mal höher
Wenn man sich den Einfluss von AI auf die Produktivität ansieht, sind LLMs stark bei (1) dem Schreiben von Boilerplate-Code, (2) der Code-Konvertierung zwischen Sprachen, (3) dem Erlernen und Zusammenfassen neuer Konzepte und (4) einfachen Aufgaben wie Dokumentation
In Großunternehmen kommt so etwas aber nicht oft vor. Die meiste Zeit geht für Meetings und Systemintegration drauf
Wirklich geholfen hat AI nur bei Hackathons. Ansonsten hat sie eher mehr Arbeit verursacht
Wenn ich dagegen unabhängig arbeite, spüre ich bei allen vier Punkten deutliche Produktivitätssteigerungen. Auch die Sorge um rechtliche Probleme oder Deployment-Bugs ist geringer
Am Ende kann AI je nachdem, wer sie nutzt, ein Game Changer sein oder eben nicht
Aber wenn man AI root access auf das eigene Leben gibt, bleibt nur Enttäuschung. AI braucht immer die Kontrolle durch einen Architekten
Ich lasse AI E-Mails formulieren, aber ich verschicke sie selbst. Ich erlaube Datenzugriff, treffe die endgültige Entscheidung aber selbst
Dank der Lehren aus der MongoDB-Zeit gehe ich bei neuer Technologie vorsichtig vor. Derzeit baue ich selbst Wrapper in Elixir und Automatisierungen mit dem Ash framework und Phoenix
Ich nutze mehrere Modelle parallel, damit kein einzelnes Unternehmen alle meine Daten kennt. Die eigentliche Herausforderung ist Privatsphäre
In Großunternehmen macht das Schreiben von Code aber nur etwa 20 % der Arbeit aus, die übrigen 80 % bleiben also weiterhin der Flaschenhals
Ich würde die Leute, die sagen, sie spürten keinen Produktivitätsschub durch AI, gern fragen: Wo genau hakt es?
Ich habe meinen Workflow in einem früheren Kommentar beschrieben und selbst in einer Legacy-Codebasis die Zahl der Schritte halbiert
Inzwischen schreibe ich fast keinen Code mehr selbst, sondern prüfe nur noch die von LLMs vorgeschlagenen Änderungen. Die Ergebnisse sind beängstigend gut
Wenn Arbeit schneller geht, macht man eben mehr davon. Wir geben die Erträge an die Gemeinschaft zurück und schaffen echten Wert
Bei komplexem Code führen sie aber eher zu Qualitätsverlust. Wenn man wartbaren Code will, macht man es besser selbst
Die erste Implementierung ging schnell, aber die Debugging-Phase wird vermutlich deutlich länger dauern
Sie ignorierte die Anweisungen und brachte das Code-Cleanup durcheinander, wodurch die Kosten am Ende 5-mal höher waren
Trotzdem heißt es, dass sich seit Dezember viel verbessert hat, also werde ich es noch einmal versuchen
Es bleibt auf dem Niveau eines Stack-Overflow-Ersatzes
Ich bin eher für Betrieb und Wartung zuständig als fürs Coden
Bisher hatte AI fast keinen Einfluss auf meine Arbeit. Docker hat für mich viel mehr verändert
Sie erstellt selbst grundlegende Funktionen falsch, und logische Fehler kommen häufig vor
Technologien wie Cloud, Terraform und Ansible haben viel größere Veränderungen gebracht
Wie im Wikipedia-Artikel zu sehen ist, ist es eine Phase, in der die Technologie sichtbar ist, aber noch nicht in der Statistik auftaucht
Inzwischen wird sogar darüber nachgedacht, PMs und Engineering Manager zu reduzieren. In 35 Berufsjahren ist das die größte Veränderung, die ich erlebt habe
Weil wir eine kleine NGO sind, erledigen wir dank AI mit demselben Budget mehr Arbeit. Dadurch haben sich auch Lerngeschwindigkeit und Qualität verbessert
Aber die Arbeitsmenge sinkt nicht. Im Gegenteil, man macht eher noch mehr
Als Entwickler hat sich meine Produktivität verdoppelt, aber das Arbeitspensum bleibt gleich
Gleichzeitig steigen die Erwartungen, sodass am Ende nur der Zeitplan komprimiert wird
Das aktuelle Projekt hat ein Ausmaß, das ich ohne AI nicht einmal versucht hätte
Trotzdem vertraue ich der Ausgabe von LLMs noch immer nicht vollständig. Selbst SwiftLint auszuführen, macht mir Sorgen
Trotzdem ist die Projekttempo enorm gestiegen. Was früher 2 Jahre gedauert hätte, ist in einem Monat schon zu mehr als der Hälfte fertig
Ich glaube nicht, dass der tatsächliche Einfluss von AI so groß ist
Wer AI gut nutzt, ist vielleicht etwas produktiver, aber wenn man das zeigt, bekommt man 10-mal mehr Arbeit
Die wirkliche Veränderung betrifft Indie-Entwickler oder Freelancer
Ich vertraue den Aussagen von Unternehmen, die AI-Produkte verkaufen, nicht
Ein Kollege aus dem Marketing erledigt mit dem von der Firma freigegebenen LLM (Gemini) nur Schein-Arbeit,
die echte Arbeit macht er mit seinem privaten Claude-Account
Der Grund ist die Angst, dass das Unternehmen die Prompts sammelt und damit ein Modell trainiert, das ihn ersetzt
Das Unternehmen hat Junior-Einstellungen gestoppt
Inzwischen ist es effizienter, die Aufgaben, die sie früher erledigt haben, an AI zu geben
Das ist aber nur eine vorübergehende Anpassungsphase. Wenn sich die Form von Expertise verändert, wird wieder eingestellt werden
Das Problem ist nicht AI, sondern makroökonomische Faktoren wie die Erlösstruktur
Ich frage mich, ob der Einfluss nicht einfach nur aus der Häufigkeit des Auftauchens in Claude-Logs geschätzt wurde
Das wäre so, als würde ein Schlangenölverkäufer seine eigenen Kunden befragen und dann behaupten, man brauche „keine Ärzte“
Die Dateninterpretation steht auf einer völlig verzerrten Prämisse