10 Punkte von GN⁺ 2026-03-17 | Noch keine Kommentare. | Auf WhatsApp teilen
  • Bei längerer Zusammenarbeit mit LLMs wie Claude oder Codex sammelt sich Müdigkeit an, wodurch die Produktivität stark sinkt
  • Eine durch Müdigkeit verursachte Verschlechterung der Prompt-Qualität mindert die Qualität der Ergebnisse, und je öfter man das Modell zwischendurch stoppt oder korrigiert, desto schlechter wird die Leistung
  • Langsame Feedback-Loops und ein übermäßig anwachsener Kontext erschweren wiederholte Experimente und senken die Arbeitseffizienz
  • Ein wirksamer Ansatz ist, die Freude am Schreiben von Prompts und ein klares Zielbewusstsein aufrechtzuerhalten und die langsame Schleife selbst als Problem zu definieren und zu verbessern
  • Der Kern der LLM-Nutzung ist schnelles Feedback und das Festlegen klarer Erfolgskriterien; so lässt sich die Debugging-Zeit verkürzen und man erzielt intelligentere Ergebnisse

Müdigkeit und langsames Experimentiertempo

  • Wenn sich mentale Erschöpfung aufbaut, sinkt die Qualität der Prompts, und dadurch verschlechtert sich auch die Qualität der LLM-Antworten
    • In einem ermüdeten Zustand reicht man Prompts ein, ohne den wesentlichen Kontext vollständig anzugeben; wiederholtes Korrigieren oder Unterbrechen verschlechtert danach die Ergebnisse
    • Solche „Zwischeneingriffe“ in Claude Code oder Codex durchbrechen die Konsistenz und führen zu schlechteren Resultaten
  • Auch die Verlangsamung des Feedback-Loops wird als Problem genannt
    • Bei zeitaufwendigen Aufgaben wie dem Parsen großer Dateien ist jeder erneute Lauf langsam, wodurch sich der Experimentzyklus verlängert
    • Wenn der Kontext nahezu ausgelastet ist, wird das Modell „träge“ oder kann Inhalte aus jüngsten Experimenten nicht mehr richtig berücksichtigen

Wege zur effizienten Zusammenarbeit mit KI

  • Der Teufelskreis schlechter Prompts („doom-loop psychosis“) sollte vermieden werden
    • Wenn das Schreiben von Prompts keinen Spaß mehr macht oder man immer wieder kurze, lieblose Eingaben wiederholt, ist eine Pause nötig
    • Zu erwarten, dass die KI Lücken füllt, ohne dass man das Problem selbst gründlich durchdacht hat, ist eine riskante Falle
  • Prompts mit klaren Zielen und Überzeugung sind der Schlüssel zum Erfolg
    • Prompts, die mit einer konkreten Vorstellung des gewünschten Ergebnisses geschrieben werden, führen zu hochwertigeren Antworten
    • Umgekehrt sind die Resultate oft unbefriedigend, wenn sie aus Unsicherheit oder Ungeduld formuliert werden

Den langsamen Feedback-Loop als Problem definieren

  • Die Geschwindigkeit des Feedback-Loops selbst sollte als Verbesserungsziel gesetzt werden
    • Wenn man zum Beispiel ein Parsing-Problem bearbeitet, kann man ausdrücklich das Ziel setzen, die Loop-Zeit auf unter 5 Minuten zu senken, und darum bitten, Fehlschläge schnell reproduzierbar zu machen
    • Das ist ein testgetriebener Entwicklungsansatz (TDD) ähnlicher Ansatz, der die Geschwindigkeit wiederholter Experimente erhöht
  • Klare Erfolgskriterien maximieren die Effizienz von LLMs
    • Gibt man konkrete Bedingungen wie „Reproduziere den Fehlerfall innerhalb von 5 Minuten“ vor, kann das LLM Codepfade optimieren und Unnötiges entfernen
    • Mit einem so schnellen Feedback-Loop sinkt der Kontextverbrauch, und das Modell arbeitet „intelligenter“

Fazit

  • Die Erschöpfung bei der Arbeit mit LLMs kann oft kein technisches Problem, sondern ein „skill issue“ sein
  • Kognitive Erschöpfung und cognitive outsourcing sind Fallstricke, die die Produktivität verringern
  • Es ist ratsam, nur dann weiterzumachen, wenn der Prompting-Prozess Freude macht und man überzeugt ist, mit dem Ergebnis zu über 95 % zufrieden zu sein
  • Wenn sich langsamer Fortschritt und Kontextüberlastung bemerkbar machen, sollte genau das zur eigentlichen Aufgabe werden: gemeinsam mit dem LLM eine schnellere Iterationsstruktur zu entwerfen

Noch keine Kommentare.

Noch keine Kommentare.