- Entgegen den Behauptungen, dass AI-Coding-Tools die Produktivität massiv gesteigert hätten, ist kein explosionsartiger Anstieg neuer Software zu beobachten
- Eine Analyse der PyPI-Daten zeigt, dass sich die Geschwindigkeit der Paket-Erstellung auch nach ChatGPT insgesamt nicht verändert hat
- Nur bei beliebten AI-bezogenen Paketen hat sich die Update-Frequenz mehr als verdoppelt, während Nicht-AI-Pakete ihren bisherigen Trend beibehalten
- Diese Konzentration lässt sich eher als Effekt gebündelter Finanzierung und Aufmerksamkeit deuten als als allgemeine Produktivitätssteigerung durch AI-Technologie
- Insgesamt zeigt sich der Einfluss generativer AI nicht als Ausweitung des gesamten Entwicklungsökosystems, sondern als Konzentration der Aktivität innerhalb des AI-Bereichs
Analyse der Softwareproduktivität im AI-Zeitalter
- Trotz der Behauptung, AI-Coding-Tools hätten die Produktivität um ein Vielfaches gesteigert, ist in der Praxis kein explosionsartiger Zuwachs neuer Software zu beobachten
- Anhand von Daten aus dem Python-Paket-Repository PyPI werden die Trends bei Paketerstellung und Updates nach der Einführung von AI analysiert
- Das Ergebnis: Nur bei beliebten AI-bezogenen Paketen stieg die Update-Frequenz sprunghaft an, während sich im gesamten Ökosystem keine klaren Veränderungen zeigen
- Dieses Phänomen erscheint eher als Folge von gebündelter Finanzierung und Aufmerksamkeit als von einer Produktivitätssteigerung durch die AI-Technologie selbst
Analyse der Paketanzahl
- Die Gesamtzahl der Pakete auf PyPI zeigte anhaltendes exponentielles Wachstum, aber zum Zeitpunkt der Veröffentlichung von ChatGPT gibt es keine auffällige Veränderung
- Die Zahl neuer Pakete pro Monat schwankt zwischen 5.000 und 15.000
- Einige Spitzen seit 2020 sind auf Spam und eingeschleuste Malware zurückzuführen
- Wenn AI die Produktivität von Entwicklern erhöht hätte, müsste ein sprunghafter Anstieg der Paketanzahl zu beobachten sein, doch in den Daten ist das nicht zu erkennen
Analyse der Update-Frequenz von Paketen
- Bedeutender als die bloße Erstellung von Paketen gilt die Update-Frequenz von gepflegten und gewarteten Paketen
- Zum Stand Dezember 2025 wurden die 15.000 am häufigsten heruntergeladenen Pakete analysiert
- Die Pakete wurden nach Erstellungsjahr gruppiert und die mediane Update-Frequenz der jährlichen Kohorten verfolgt
- Nach ChatGPT erstellte Pakete kamen im ersten Jahr im Schnitt auf 13 Updates, mehr als die 6 Updates von 2014 erstellten Paketen
- Dieser Trend zeigte sich jedoch bereits seit 2019, möglicherweise beeinflusst durch die Verbreitung von CI-Tools wie GitHub Actions
- In allen Kohorten gilt: Je älter ein Paket wird, desto geringer wird die Update-Frequenz
- Der Einsatz von AI-Tools erhöht also nicht die Wartungsfrequenz älterer Pakete
Auffälligkeiten bei AI-bezogenen Paketen
- Eine Klassifizierung anhand der Paketbeschreibung, ob ein Paket AI-bezogen ist, zeigt, dass deutliche Veränderungen nur bei AI-bezogenen Paketen auftreten
- 2023 erstellte AI-bezogene Pakete erreichten im ersten Jahr einen Median von 20 Updates, also etwa doppelt so viel wie Nicht-AI-Pakete
- Pakete ohne AI-Bezug halten an einem ähnlichen, moderat steigenden Trend wie zuvor fest
- Damit ist eine Zunahme konzentrierter Aktivität nur bei AI-bezogenen Projekten festzustellen
Zusammenhang mit Popularität
- Um zu prüfen, ob die hohe Update-Frequenz AI-bezogener Pakete nur ein Popularitätseffekt ist,
wurden die 15.000 Top-Pakete in die oberen 7.500 und unteren 7.500 nach Downloads aufgeteilt
- Das Ergebnis: Nur bei populären AI-Paketen steigt die Update-Frequenz stark an
- Nach ChatGPT kommen populäre AI-Pakete auf 21 bis 26 Updates pro Jahr, während populäre Nicht-AI-Pakete bei etwa 10 bleiben
- Das ist sogar deutlich höher als bei weniger populären AI-Paketen
Zusammengefasste Beobachtungen
- Die Geschwindigkeit der Paketerstellung hat auch nach ChatGPT nicht deutlich zugenommen
- Die gesamte Update-Frequenz ist moderat gestiegen, doch dieser Trend bestand schon vor AI
- Nur bei populären AI-bezogenen Paketen ist ein mehr als doppelt so hoher Anstieg der Update-Frequenz zu beobachten
Interpretation und Hypothesen
-
Es gibt keine Belege dafür, dass AI die Produktivität von Entwicklern insgesamt explosionsartig erhöht hat
- Insgesamt fehlt ein sprunghafter Anstieg neuer Pakete oder Updates
- Es ist zwar möglich, dass einige Entwickler mit AI schneller arbeiten, doch Anzahl und Effekt scheinen begrenzt
- Die Entwicklung von Software, die AI nutzt, läuft allerdings aktiv
- Besonders bei populären AI-bezogenen Paketen zeigt sich konzentrierte Aktivität
Zwei Hypothesen
- AI-Skill-Thema: Die Menschen, die AI-Tools bauen, wissen möglicherweise auch am besten, wie sie AI effektiv einsetzen, weshalb Produktivitätsgewinne bei AI-Paketen stärker sichtbar werden. Allein mit Skill lässt sich aber schwer erklären, warum sich das Phänomen nur auf populäre AI-Pakete konzentriert
- Finanzierung und Hype: In den AI-Bereich fließen enorme Investitionen und Aufmerksamkeit, sodass mehr Menschen mehr Arbeit leisten und dadurch Erstellung und Updates von Paketen zunehmen
- Die Veränderung der Kohortengröße stützt das: Das Verhältnis Nicht-AI zu AI lag in der Kohorte 2021 bei 6:1 (1.211 vs. 185) und veränderte sich 2024 auf unter 2:1 (727 vs. 423)
- Nicht weil Entwickler zu Übermenschen geworden wären, sondern weil überhitztes Interesse an AI in Finanzierung umgewandelt wurde und so die Entstehungs- und Iterationsgeschwindigkeit von AI-Paketen erhöhte
- Anhand der Daten allein lässt sich nicht entscheiden, welcher der beiden Effekte stärker ist
Fazit
- Der sichtbare Effekt der generativen AI-Revolution zeigt sich nicht als Explosion der gesamten Softwareproduktivität,
sondern als Zunahme konzentrierter Aktivität innerhalb des AI-Ökosystems
- Aus Sicht der PyPI-Daten hat AI nicht alle Entwickler zu Übermenschen gemacht,
sondern zeigt vielmehr das Ergebnis einer Konzentration von Finanzierung und Aufwand auf AI-bezogene Projekte
4 Kommentare
Im Moment scheint die größte Innovation zu sein, dass die Einstiegshürde für die Entwicklung gesunken ist.
Seltsame Logik … haha. Ich habe seit ChatGPT in der Entwicklung anderer Domains extrem viel AI eingesetzt … Dinge, die früher unmöglich waren oder für die man etwa 10 erfahrene Leute gebraucht hätte, mache ich jetzt allein … Ist das nicht Innovation?
Ist das nicht so, als ob man solche Innovationen gar nicht will? Es wirkt, als würde man das fast auf dem Niveau von Pressematerial verbreiten; offenbar stehen dabei Interessenskonflikte im Raum.
Hacker-News-Kommentare
Heutzutage ist es wirklich einfach geworden, eine Idee bis zur Prototyp-Phase zu bringen
Aber um daraus tatsächlich einen echten Service zu machen, braucht es immer noch langweilige Softwareentwicklung
Ich habe viele Leute gesehen, die dem Trend folgten, „ihr Business selbst in Code zu bauen“, aber niemand kam tatsächlich bis zum Launch
Letztlich frisst gerade der letzte Schritt den Großteil von Zeit und Aufwand
Eine App muss nicht unbedingt öffentlich verfügbar sein, um nützlich zu sein
Wenn das Ziel ist, ein Problem für mich selbst, mein Umfeld oder mein Team zu lösen, dann ist dieser „letzte Schritt“ unnötige Verschwendung
Produkte auf dem Markt sind keine Problemlösungen, sondern Werkzeuge, um Geld zu verdienen
AI hat die Kosten für „Probleme lösen“ stark gesenkt, aber die Kosten für „Produktisierung“ deutlich weniger
Deshalb bedeutet ein Mangel an Produkten nicht automatisch einen Mangel an Problemlösungen
Das ist gefährlich. Denn die Fähigkeit, die Grundursache eines Problems zu finden, verkümmert
AI liefert die ersten 80% schnell, aber die Qualität ist fragwürdig
Am Ende fördert das eher Entwicklung per Versuch und Irrtum, und gerade erfahrene Entwickler mögen diesen Ansatz nicht
Wenn ich Claude das Feature-Design machen lasse, kommt eine großartige Spezifikation heraus, und der Coding-Agent baut die ersten 80% auch gut
Aber die letzten 20% dauern viel länger
In der Zwischenzeit sammeln sich neue Feature-Ideen an, und es entstehen ein endloser Backlog und Unruhe
Eigentlich hat das niemand von mir verlangt, ich habe mir diesen Druck selbst gemacht
Es ist ein langer Prozess aus Anforderungserhebung, Design, Freigaben, Infrastrukturaufbau, Code schreiben, Testen, Deployment und Monitoring
AI kann davon 4 bis 5 Schritte, also vor allem Infrastruktur und Code schreiben, beschleunigen
Aber der Rest bleibt weiterhin Sache des Menschen
Den Einfluss von AI anhand der Top 15.000 Pakete auf PyPI zu messen, ist nicht sinnvoll
Viel aussagekräftiger ist die Statistik, dass neue iOS-App-Einträge um 24% gestiegen sind
Laut Appfigures Explorer gab es 2025 557.000 neue Apps, der erste starke Anstieg seit 2016
Seit AI ausreichend praktisch geworden ist (Dezember 2025, mit dem Release von Opus 4.5 und Codex), ist die Produktivität in der Entwicklung stark gestiegen
Wir leben heute in einer Zeit, in der man statt Stack Overflow ein LLM fragt
Ein LLM mit Zugriff auf Dokumentation kann 95% der Fragen beantworten
Für Stack Overflow dürfte es schwer werden, diesen Wandel auszuhalten
AI-Coding wird oft in Form von internen Tools genutzt, die weniger Utility brauchen oder gar nicht als Paket veröffentlicht werden
Nützliche Apps, die zur wirtschaftlichen Produktivität beitragen, gibt es kaum
AI verbraucht Energie und Kapital, bringt aber nur geringe reale Gewinne
Aus wirtschaftlicher Sicht ist der AI-Boom eher eine überhitzte Blase
Zurzeit gibt es Unmengen von Projekten wie „YoloSwag“
Sie behaupten, eine 1:1-Implementierung von PyTorch in Rust zu sein, preisen 80% weniger CPU-Nutzung und 300% mehr Geschwindigkeit an, stürzen in Wirklichkeit aber sofort ab
Alle Tests werden mit Fake-Mocks bestanden, und der Code ist ein Monster, halb PyTorch-Bindings, halb irgendwelche schrägen APIs
Der Entwickler war ein ehemaliger Krypto-Typ, der behauptete, in 6 Wochen zum Quantencomputing-Experten geworden zu sein
Sie nutzen AI nicht, um selbst zu lernen, sondern nur zur Selbstdarstellung
Wenn sich diese Kultur nicht ändert, werden wir weiterhin solche Projekte im „YoloSwag“-Stil sehen
Ich habe VSCode gelöscht und mir ein eigenes hyperpersonalisiertes Dashboard gebaut
News-Feed, Issue-Management, Markdown-Editor, Kalender, AI-Buttons – alles läuft auf einem Bildschirm
Aber es ist so stark auf mich zugeschnitten, dass es keinen Grund gibt, es zu teilen
Die meisten neuen Services bleiben bei LLM-Wrappern oder AI-Tools stehen
Zum Beispiel habe ich in 20 Minuten eine Einkaufs-App fertiggestellt, die genau zu meinen Einkaufsgewohnheiten passt
Solche hyperpersonalisierten Softwaresysteme sind der nächste Schritt
Wenn du dein Setup teilst, könnte das viele Builder inspirieren
Der Grund, warum mit AI Gebautes nicht veröffentlicht wird, ist simpel
Das meiste ist maßgeschneidert für Einzelne und muss nicht öffentlich gemacht werden
Außerdem ist inzwischen eher die Idee selbst als die Umsetzung der eigentliche Wettbewerbsvorteil, deshalb teilt man es nicht unbedingt
In einer Zeit, in der jeder ähnliche Fähigkeiten hat, kann sich jeder schnell und günstig bauen, was er braucht
Deshalb gibt es viele mit AI gebaute Ergebnisse, aber immer weniger davon werden öffentlich sichtbar
Dafür braucht es aber Belege, die nicht nur private Projekte zeigen, sondern einen Wandel in der gesamten Branche
Dadurch werden sogar echte Beiträge ausgebremst
Natürlich ist minderwertiger AI-Code ein Problem, aber alles pauschal abzulehnen, ist keine Lösung
Die größere Frage ist eine Kultur, in der Reviews und Tests nicht sauber gemacht werden
AI macht die ersten 90% einer App leicht, aber die letzten 10% deutlich schwerer
Die Codebasis ist gewachsen, aber die Vertrautheit damit ist verschwunden, und an diesem Punkt geben die meisten auf
Selbst wenn AI schnell liefert, gibt es also viele Fallstricke bei Qualität und Sicherheit
Der aktuelle AI-Boom erinnert an die Dotcom-Blase
Wie Anfang der 2000er verbrennen viele Firmen Geld in der Illusion, „man müsse nur AI einsetzen“
Gleichzeitig gibt es Unternehmen, die still und leise AI einführen und damit ihre Arbeitseffizienz steigern
Am Ende werden die meisten wohl Hilfswerkzeuge bleiben, und vollständig automatisierte Apps werden selten sein
Die Auswirkungen von AI über die Zahl der PyPI-Pakete zu messen, ist der falsche Ansatz
Der echte Produktivitätsgewinn entsteht in privaten Repositories, internen Tools und Single-Purpose-Apps
Ich selbst habe mit AI in 6 Wochen eine Web-App mit Offline-Support, Stripe-Zahlungen und SEO-Seiten gebaut
Früher hätte das 6 Monate gedauert
Solche Ergebnisse tauchen in Datensätzen nicht auf, aber der Produktivitätsgewinn ist eindeutig
Auch ich nutze inzwischen weniger Libraries
Dank AI ist es einfacher geworden, API-Calls direkt selbst zu behandeln
Ein Paket zu veröffentlichen ist faktisch dasselbe wie ein Open-Source-Projekt zu betreiben, und das ist extrem ermüdend
Wegen Wartungsaufwand und unausgewogenem Verhältnis von Aufwand und Gegenleistung scheuen sich viele davor
Es gibt bereits mehr als genug Libraries auf der Welt, und eine Entwicklung hin zur Konsolidierung auf wirklich gute ist nicht schlecht
Viele Entwickler nutzen AI inzwischen nicht mehr auf „Projektbasis“, sondern pro Commit
Den Effekt von AI über PyPI zu messen, ist kurzsichtig
Schaut man stattdessen in den GitHub Octoverse 2025 Report,
sieht man klar steigende Kurven bei Nutzerzahlen und Open-Source-Beiträgen
Stand 2025 fanden 81,5% aller Beiträge in privaten Repositories statt, bei öffentlichen Repositories waren es nur 63%
Es gab schon Cursor, Copilot und andere Tools, und alle wurden als Innovation gefeiert
Wenn AI das Ausliefern von Code wirklich um das Zehnfache beschleunigt, müsste man explosive Ergebnisse längst sehen