Zusammenfassung
- Ein Versuchsbericht (Zero-context, N=5) zeigt, dass der Tokenverbrauch von KI deutlich sank, nachdem die Codestruktur (Strategie-/Factory-Pattern, Dateiaufteilung, Bereinigung von
.cursorrules) mit einem einzeiligen Prompt refaktoriert und anschließend derselbe Prompt zur Funktionserweiterung ausgeführt wurde. Die im Experiment verwendeten Prompts und der Quellcode sind veröffentlicht und damit reproduzierbar.
Kerndaten
-
Claude-4 Sonnet: im Durchschnitt 390,159 → 242,265 Tokens (−37.91%)
-
GPT-5: im Durchschnitt 315,839 → 233,634 Tokens (−26.03%)
-
Grundlage: die von Cursor angezeigten Total Tokens. Ein Vergleich der absoluten Werte zwischen den Modellen ist nicht aussagekräftig (unterschiedliche Zählweise je Modell).
Setup (Kurzfassung)
-
IDE Cursor 1.6.6, Modelle GPT-5 / Claude-4 Sonnet
-
Alle Prompts im Zero-context, bei jeder Runde vollständiger Neustart des Editors
-
Erfolgskriterium: Als Erfolg gewertet wurde, wenn die Anforderungen mit einem einzelnen Prompt umgesetzt wurden
Warum das wichtig ist
-
„Gute Codestruktur“ ist nicht nur für Menschen besser lesbar, sondern hat auch messbaren Einfluss auf Tokens, Kosten und Zeit bei KI
-
Durch die Veröffentlichung von Prompt und Repository ist die Reproduzierbarkeit gesichert (direkt nutzbar für den Praxiseinsatz und Folgeexperimente)
Persönliche Einschätzung
- Als Cursor-Nutzer halte ich das für eine hervorragende Methodik, die einen zentralen Ansatz zur Kostensenkung bietet.
- Wie auch im Haupttext erwähnt, ist die etwas geringe Stichprobengröße allerdings bedauerlich.
Noch keine Kommentare.