14 Punkte von GN⁺ 2026-03-25 | 4 Kommentare | Auf WhatsApp teilen
  • Entgegen den Behauptungen, dass AI-Coding-Tools die Produktivität massiv gesteigert hätten, ist kein explosionsartiger Anstieg neuer Software zu beobachten
  • Eine Analyse der PyPI-Daten zeigt, dass sich die Geschwindigkeit der Paket-Erstellung auch nach ChatGPT insgesamt nicht verändert hat
  • Nur bei beliebten AI-bezogenen Paketen hat sich die Update-Frequenz mehr als verdoppelt, während Nicht-AI-Pakete ihren bisherigen Trend beibehalten
  • Diese Konzentration lässt sich eher als Effekt gebündelter Finanzierung und Aufmerksamkeit deuten als als allgemeine Produktivitätssteigerung durch AI-Technologie
  • Insgesamt zeigt sich der Einfluss generativer AI nicht als Ausweitung des gesamten Entwicklungsökosystems, sondern als Konzentration der Aktivität innerhalb des AI-Bereichs

Analyse der Softwareproduktivität im AI-Zeitalter

  • Trotz der Behauptung, AI-Coding-Tools hätten die Produktivität um ein Vielfaches gesteigert, ist in der Praxis kein explosionsartiger Zuwachs neuer Software zu beobachten
  • Anhand von Daten aus dem Python-Paket-Repository PyPI werden die Trends bei Paketerstellung und Updates nach der Einführung von AI analysiert
  • Das Ergebnis: Nur bei beliebten AI-bezogenen Paketen stieg die Update-Frequenz sprunghaft an, während sich im gesamten Ökosystem keine klaren Veränderungen zeigen
  • Dieses Phänomen erscheint eher als Folge von gebündelter Finanzierung und Aufmerksamkeit als von einer Produktivitätssteigerung durch die AI-Technologie selbst

Analyse der Paketanzahl

  • Die Gesamtzahl der Pakete auf PyPI zeigte anhaltendes exponentielles Wachstum, aber zum Zeitpunkt der Veröffentlichung von ChatGPT gibt es keine auffällige Veränderung
    • Die Zahl neuer Pakete pro Monat schwankt zwischen 5.000 und 15.000
    • Einige Spitzen seit 2020 sind auf Spam und eingeschleuste Malware zurückzuführen
  • Wenn AI die Produktivität von Entwicklern erhöht hätte, müsste ein sprunghafter Anstieg der Paketanzahl zu beobachten sein, doch in den Daten ist das nicht zu erkennen

Analyse der Update-Frequenz von Paketen

  • Bedeutender als die bloße Erstellung von Paketen gilt die Update-Frequenz von gepflegten und gewarteten Paketen
    • Zum Stand Dezember 2025 wurden die 15.000 am häufigsten heruntergeladenen Pakete analysiert
    • Die Pakete wurden nach Erstellungsjahr gruppiert und die mediane Update-Frequenz der jährlichen Kohorten verfolgt
  • Nach ChatGPT erstellte Pakete kamen im ersten Jahr im Schnitt auf 13 Updates, mehr als die 6 Updates von 2014 erstellten Paketen
    • Dieser Trend zeigte sich jedoch bereits seit 2019, möglicherweise beeinflusst durch die Verbreitung von CI-Tools wie GitHub Actions
  • In allen Kohorten gilt: Je älter ein Paket wird, desto geringer wird die Update-Frequenz
    • Der Einsatz von AI-Tools erhöht also nicht die Wartungsfrequenz älterer Pakete

Auffälligkeiten bei AI-bezogenen Paketen

  • Eine Klassifizierung anhand der Paketbeschreibung, ob ein Paket AI-bezogen ist, zeigt, dass deutliche Veränderungen nur bei AI-bezogenen Paketen auftreten
    • 2023 erstellte AI-bezogene Pakete erreichten im ersten Jahr einen Median von 20 Updates, also etwa doppelt so viel wie Nicht-AI-Pakete
  • Pakete ohne AI-Bezug halten an einem ähnlichen, moderat steigenden Trend wie zuvor fest
    • Damit ist eine Zunahme konzentrierter Aktivität nur bei AI-bezogenen Projekten festzustellen

Zusammenhang mit Popularität

  • Um zu prüfen, ob die hohe Update-Frequenz AI-bezogener Pakete nur ein Popularitätseffekt ist,
    wurden die 15.000 Top-Pakete in die oberen 7.500 und unteren 7.500 nach Downloads aufgeteilt
  • Das Ergebnis: Nur bei populären AI-Paketen steigt die Update-Frequenz stark an
    • Nach ChatGPT kommen populäre AI-Pakete auf 21 bis 26 Updates pro Jahr, während populäre Nicht-AI-Pakete bei etwa 10 bleiben
    • Das ist sogar deutlich höher als bei weniger populären AI-Paketen

Zusammengefasste Beobachtungen

  1. Die Geschwindigkeit der Paketerstellung hat auch nach ChatGPT nicht deutlich zugenommen
  2. Die gesamte Update-Frequenz ist moderat gestiegen, doch dieser Trend bestand schon vor AI
  3. Nur bei populären AI-bezogenen Paketen ist ein mehr als doppelt so hoher Anstieg der Update-Frequenz zu beobachten

Interpretation und Hypothesen

  • Es gibt keine Belege dafür, dass AI die Produktivität von Entwicklern insgesamt explosionsartig erhöht hat

    • Insgesamt fehlt ein sprunghafter Anstieg neuer Pakete oder Updates
    • Es ist zwar möglich, dass einige Entwickler mit AI schneller arbeiten, doch Anzahl und Effekt scheinen begrenzt
    • Die Entwicklung von Software, die AI nutzt, läuft allerdings aktiv
    • Besonders bei populären AI-bezogenen Paketen zeigt sich konzentrierte Aktivität

Zwei Hypothesen

  • AI-Skill-Thema: Die Menschen, die AI-Tools bauen, wissen möglicherweise auch am besten, wie sie AI effektiv einsetzen, weshalb Produktivitätsgewinne bei AI-Paketen stärker sichtbar werden. Allein mit Skill lässt sich aber schwer erklären, warum sich das Phänomen nur auf populäre AI-Pakete konzentriert
  • Finanzierung und Hype: In den AI-Bereich fließen enorme Investitionen und Aufmerksamkeit, sodass mehr Menschen mehr Arbeit leisten und dadurch Erstellung und Updates von Paketen zunehmen
    • Die Veränderung der Kohortengröße stützt das: Das Verhältnis Nicht-AI zu AI lag in der Kohorte 2021 bei 6:1 (1.211 vs. 185) und veränderte sich 2024 auf unter 2:1 (727 vs. 423)
    • Nicht weil Entwickler zu Übermenschen geworden wären, sondern weil überhitztes Interesse an AI in Finanzierung umgewandelt wurde und so die Entstehungs- und Iterationsgeschwindigkeit von AI-Paketen erhöhte
  • Anhand der Daten allein lässt sich nicht entscheiden, welcher der beiden Effekte stärker ist

Fazit

  • Der sichtbare Effekt der generativen AI-Revolution zeigt sich nicht als Explosion der gesamten Softwareproduktivität,
    sondern als Zunahme konzentrierter Aktivität innerhalb des AI-Ökosystems
  • Aus Sicht der PyPI-Daten hat AI nicht alle Entwickler zu Übermenschen gemacht,
    sondern zeigt vielmehr das Ergebnis einer Konzentration von Finanzierung und Aufwand auf AI-bezogene Projekte

4 Kommentare

 
eoeoe 2026-03-31

Im Moment scheint die größte Innovation zu sein, dass die Einstiegshürde für die Entwicklung gesunken ist.

 
wahihi 2026-03-26

Seltsame Logik … haha. Ich habe seit ChatGPT in der Entwicklung anderer Domains extrem viel AI eingesetzt … Dinge, die früher unmöglich waren oder für die man etwa 10 erfahrene Leute gebraucht hätte, mache ich jetzt allein … Ist das nicht Innovation?

 
summerpicnic 28 일 전

Ist das nicht so, als ob man solche Innovationen gar nicht will? Es wirkt, als würde man das fast auf dem Niveau von Pressematerial verbreiten; offenbar stehen dabei Interessenskonflikte im Raum.

 
GN⁺ 2026-03-25
Hacker-News-Kommentare
  • Heutzutage ist es wirklich einfach geworden, eine Idee bis zur Prototyp-Phase zu bringen
    Aber um daraus tatsächlich einen echten Service zu machen, braucht es immer noch langweilige Softwareentwicklung
    Ich habe viele Leute gesehen, die dem Trend folgten, „ihr Business selbst in Code zu bauen“, aber niemand kam tatsächlich bis zum Launch
    Letztlich frisst gerade der letzte Schritt den Großteil von Zeit und Aufwand

    • Stimmt. Aber in den meisten Fällen reicht das völlig aus
      Eine App muss nicht unbedingt öffentlich verfügbar sein, um nützlich zu sein
      Wenn das Ziel ist, ein Problem für mich selbst, mein Umfeld oder mein Team zu lösen, dann ist dieser „letzte Schritt“ unnötige Verschwendung
      Produkte auf dem Markt sind keine Problemlösungen, sondern Werkzeuge, um Geld zu verdienen
      AI hat die Kosten für „Probleme lösen“ stark gesenkt, aber die Kosten für „Produktisierung“ deutlich weniger
      Deshalb bedeutet ein Mangel an Produkten nicht automatisch einen Mangel an Problemlösungen
    • Ich habe viel mit Software gearbeitet, die mit AI-Code gebaut wurde, und ich merke, wie mein Gespür fürs Debugging nachlässt
      Das ist gefährlich. Denn die Fähigkeit, die Grundursache eines Problems zu finden, verkümmert
      AI liefert die ersten 80% schnell, aber die Qualität ist fragwürdig
      Am Ende fördert das eher Entwicklung per Versuch und Irrtum, und gerade erfahrene Entwickler mögen diesen Ansatz nicht
    • Ich habe bei privaten Projekten genau dasselbe erlebt
      Wenn ich Claude das Feature-Design machen lasse, kommt eine großartige Spezifikation heraus, und der Coding-Agent baut die ersten 80% auch gut
      Aber die letzten 20% dauern viel länger
      In der Zwischenzeit sammeln sich neue Feature-Ideen an, und es entstehen ein endloser Backlog und Unruhe
      Eigentlich hat das niemand von mir verlangt, ich habe mir diesen Druck selbst gemacht
    • Software Engineering ist nicht einfach nur Coding
      Es ist ein langer Prozess aus Anforderungserhebung, Design, Freigaben, Infrastrukturaufbau, Code schreiben, Testen, Deployment und Monitoring
      AI kann davon 4 bis 5 Schritte, also vor allem Infrastruktur und Code schreiben, beschleunigen
      Aber der Rest bleibt weiterhin Sache des Menschen
    • Inzwischen gibt es schon den Witz, dass „die ersten 90% 90% der Zeit brauchen und die letzten 10% die übrigen 90.000.000%“
  • Den Einfluss von AI anhand der Top 15.000 Pakete auf PyPI zu messen, ist nicht sinnvoll
    Viel aussagekräftiger ist die Statistik, dass neue iOS-App-Einträge um 24% gestiegen sind
    Laut Appfigures Explorer gab es 2025 557.000 neue Apps, der erste starke Anstieg seit 2016
    Seit AI ausreichend praktisch geworden ist (Dezember 2025, mit dem Release von Opus 4.5 und Codex), ist die Produktivität in der Entwicklung stark gestiegen

    • Es ist nur natürlich, dass kurzlebige Mobile-Apps stärker von AI profitieren als ausgereifte Python-Pakete
      Wir leben heute in einer Zeit, in der man statt Stack Overflow ein LLM fragt
      Ein LLM mit Zugriff auf Dokumentation kann 95% der Fragen beantworten
      Für Stack Overflow dürfte es schwer werden, diesen Wandel auszuhalten
    • PyPI-Pakete sind ungeeignet, um den Einfluss von AI zu messen
      AI-Coding wird oft in Form von internen Tools genutzt, die weniger Utility brauchen oder gar nicht als Paket veröffentlicht werden
    • Dass es im App Store mehr nutzlose Apps gibt, ist bedeutungslos
      Nützliche Apps, die zur wirtschaftlichen Produktivität beitragen, gibt es kaum
      AI verbraucht Energie und Kapital, bringt aber nur geringe reale Gewinne
      Aus wirtschaftlicher Sicht ist der AI-Boom eher eine überhitzte Blase
  • Zurzeit gibt es Unmengen von Projekten wie „YoloSwag“
    Sie behaupten, eine 1:1-Implementierung von PyTorch in Rust zu sein, preisen 80% weniger CPU-Nutzung und 300% mehr Geschwindigkeit an, stürzen in Wirklichkeit aber sofort ab
    Alle Tests werden mit Fake-Mocks bestanden, und der Code ist ein Monster, halb PyTorch-Bindings, halb irgendwelche schrägen APIs
    Der Entwickler war ein ehemaliger Krypto-Typ, der behauptete, in 6 Wochen zum Quantencomputing-Experten geworden zu sein

    • Es gibt schon den Witz: „Wenn es sofort crasht, ist das nicht erst recht wirklich Memory Safe?“
    • Solche Leute muss man öffentlich aussortieren, damit eine gesunde Entwicklungskultur entstehen kann
      Sie nutzen AI nicht, um selbst zu lernen, sondern nur zur Selbstdarstellung
      Wenn sich diese Kultur nicht ändert, werden wir weiterhin solche Projekte im „YoloSwag“-Stil sehen
  • Ich habe VSCode gelöscht und mir ein eigenes hyperpersonalisiertes Dashboard gebaut
    News-Feed, Issue-Management, Markdown-Editor, Kalender, AI-Buttons – alles läuft auf einem Bildschirm
    Aber es ist so stark auf mich zugeschnitten, dass es keinen Grund gibt, es zu teilen

    • Technisch versierte Leute bauen solche persönlichen Apps, aber hochwertige Apps für die breite Masse fehlen weiterhin
      Die meisten neuen Services bleiben bei LLM-Wrappern oder AI-Tools stehen
    • Dank AI kann auch ich jetzt leicht „Apps nur für mich“ bauen
      Zum Beispiel habe ich in 20 Minuten eine Einkaufs-App fertiggestellt, die genau zu meinen Einkaufsgewohnheiten passt
      Solche hyperpersonalisierten Softwaresysteme sind der nächste Schritt
    • Ich verwalte auch mehrere Projekte rund um VSCode + Claude Code, aber die Oberfläche wird immer komplexer
      Wenn du dein Setup teilst, könnte das viele Builder inspirieren
    • Selbst wenn Workflows unterschiedlich sind, sind solche personalisierten Setups inspirierende Beispiele
  • Der Grund, warum mit AI Gebautes nicht veröffentlicht wird, ist simpel
    Das meiste ist maßgeschneidert für Einzelne und muss nicht öffentlich gemacht werden
    Außerdem ist inzwischen eher die Idee selbst als die Umsetzung der eigentliche Wettbewerbsvorteil, deshalb teilt man es nicht unbedingt
    In einer Zeit, in der jeder ähnliche Fähigkeiten hat, kann sich jeder schnell und günstig bauen, was er braucht
    Deshalb gibt es viele mit AI gebaute Ergebnisse, aber immer weniger davon werden öffentlich sichtbar

    • Trotzdem bleibt die Behauptung gültig, dass AI das Wesen von Software Engineering verändert hat
      Dafür braucht es aber Belege, die nicht nur private Projekte zeigen, sondern einen Wandel in der gesamten Branche
    • In Open Source entsteht eine seltsame ideologische Stimmung, nach der „alles von AI Erstellte Müll“ sei
      Dadurch werden sogar echte Beiträge ausgebremst
      Natürlich ist minderwertiger AI-Code ein Problem, aber alles pauschal abzulehnen, ist keine Lösung
      Die größere Frage ist eine Kultur, in der Reviews und Tests nicht sauber gemacht werden
  • AI macht die ersten 90% einer App leicht, aber die letzten 10% deutlich schwerer
    Die Codebasis ist gewachsen, aber die Vertrautheit damit ist verschwunden, und an diesem Punkt geben die meisten auf

    • Ich habe auch mit AI an einer Greenfield-App experimentiert, und es gab vier Probleme
      1. Es ging so schnell, dass die Planung zusammenbrach
      2. Es gab viele kleine Fehler
      3. Es gab viele Laufzeit-Sicherheitsprobleme und falsche Annahmen
      4. Strukturelle Fehler machten Refactoring schwierig
        Selbst wenn AI schnell liefert, gibt es also viele Fallstricke bei Qualität und Sicherheit
    • Der Witz „die ersten 90% brauchen 90% der Zeit, die letzten 10% die restlichen 90%“ gilt immer noch
    • Wie beim Konzept Comprehension Debt wächst die Schuld durch Code, den man nicht wirklich versteht
    • Die letzten 10% waren schon immer hart, aber dank AI sind sie mental noch zermürbender geworden
    • Wenn AI den Code schreibt, neigt auch der Funktionsumfang dazu, immer weiter anzuwachsen
  • Der aktuelle AI-Boom erinnert an die Dotcom-Blase
    Wie Anfang der 2000er verbrennen viele Firmen Geld in der Illusion, „man müsse nur AI einsetzen“
    Gleichzeitig gibt es Unternehmen, die still und leise AI einführen und damit ihre Arbeitseffizienz steigern

    • Es ist ähnlich wie damals, als man Websites mit FrontPage oder DreamWeaver gebaut hat
      Am Ende werden die meisten wohl Hilfswerkzeuge bleiben, und vollständig automatisierte Apps werden selten sein
  • Die Auswirkungen von AI über die Zahl der PyPI-Pakete zu messen, ist der falsche Ansatz
    Der echte Produktivitätsgewinn entsteht in privaten Repositories, internen Tools und Single-Purpose-Apps
    Ich selbst habe mit AI in 6 Wochen eine Web-App mit Offline-Support, Stripe-Zahlungen und SEO-Seiten gebaut
    Früher hätte das 6 Monate gedauert
    Solche Ergebnisse tauchen in Datensätzen nicht auf, aber der Produktivitätsgewinn ist eindeutig

    • Es gibt schon den Witz: „Hat AI auch diesen Kommentar geschrieben, oder klingt man nur so, wenn man zu viel damit arbeitet?“
  • Auch ich nutze inzwischen weniger Libraries
    Dank AI ist es einfacher geworden, API-Calls direkt selbst zu behandeln
    Ein Paket zu veröffentlichen ist faktisch dasselbe wie ein Open-Source-Projekt zu betreiben, und das ist extrem ermüdend
    Wegen Wartungsaufwand und unausgewogenem Verhältnis von Aufwand und Gegenleistung scheuen sich viele davor
    Es gibt bereits mehr als genug Libraries auf der Welt, und eine Entwicklung hin zur Konsolidierung auf wirklich gute ist nicht schlecht
    Viele Entwickler nutzen AI inzwischen nicht mehr auf „Projektbasis“, sondern pro Commit

  • Den Effekt von AI über PyPI zu messen, ist kurzsichtig
    Schaut man stattdessen in den GitHub Octoverse 2025 Report,
    sieht man klar steigende Kurven bei Nutzerzahlen und Open-Source-Beiträgen
    Stand 2025 fanden 81,5% aller Beiträge in privaten Repositories statt, bei öffentlichen Repositories waren es nur 63%

    • Aber der Einwand „Claude Code kam doch erst im Mai 2025 heraus, und jetzt ist erst März“ ist nur ein Verschieben der Maßstäbe
      Es gab schon Cursor, Copilot und andere Tools, und alle wurden als Innovation gefeiert
      Wenn AI das Ausliefern von Code wirklich um das Zehnfache beschleunigt, müsste man explosive Ergebnisse längst sehen