- Bei längerer Zusammenarbeit mit LLMs wie Claude oder Codex sammelt sich Müdigkeit an, wodurch die Produktivität stark sinkt
- Eine durch Müdigkeit verursachte Verschlechterung der Prompt-Qualität mindert die Qualität der Ergebnisse, und je öfter man das Modell zwischendurch stoppt oder korrigiert, desto schlechter wird die Leistung
- Langsame Feedback-Loops und ein übermäßig anwachsener Kontext erschweren wiederholte Experimente und senken die Arbeitseffizienz
- Ein wirksamer Ansatz ist, die Freude am Schreiben von Prompts und ein klares Zielbewusstsein aufrechtzuerhalten und die langsame Schleife selbst als Problem zu definieren und zu verbessern
- Der Kern der LLM-Nutzung ist schnelles Feedback und das Festlegen klarer Erfolgskriterien; so lässt sich die Debugging-Zeit verkürzen und man erzielt intelligentere Ergebnisse
Müdigkeit und langsames Experimentiertempo
- Wenn sich mentale Erschöpfung aufbaut, sinkt die Qualität der Prompts, und dadurch verschlechtert sich auch die Qualität der LLM-Antworten
- In einem ermüdeten Zustand reicht man Prompts ein, ohne den wesentlichen Kontext vollständig anzugeben; wiederholtes Korrigieren oder Unterbrechen verschlechtert danach die Ergebnisse
- Solche „Zwischeneingriffe“ in Claude Code oder Codex durchbrechen die Konsistenz und führen zu schlechteren Resultaten
- Auch die Verlangsamung des Feedback-Loops wird als Problem genannt
- Bei zeitaufwendigen Aufgaben wie dem Parsen großer Dateien ist jeder erneute Lauf langsam, wodurch sich der Experimentzyklus verlängert
- Wenn der Kontext nahezu ausgelastet ist, wird das Modell „träge“ oder kann Inhalte aus jüngsten Experimenten nicht mehr richtig berücksichtigen
Wege zur effizienten Zusammenarbeit mit KI
- Der Teufelskreis schlechter Prompts („doom-loop psychosis“) sollte vermieden werden
- Wenn das Schreiben von Prompts keinen Spaß mehr macht oder man immer wieder kurze, lieblose Eingaben wiederholt, ist eine Pause nötig
- Zu erwarten, dass die KI Lücken füllt, ohne dass man das Problem selbst gründlich durchdacht hat, ist eine riskante Falle
- Prompts mit klaren Zielen und Überzeugung sind der Schlüssel zum Erfolg
- Prompts, die mit einer konkreten Vorstellung des gewünschten Ergebnisses geschrieben werden, führen zu hochwertigeren Antworten
- Umgekehrt sind die Resultate oft unbefriedigend, wenn sie aus Unsicherheit oder Ungeduld formuliert werden
Den langsamen Feedback-Loop als Problem definieren
- Die Geschwindigkeit des Feedback-Loops selbst sollte als Verbesserungsziel gesetzt werden
- Wenn man zum Beispiel ein Parsing-Problem bearbeitet, kann man ausdrücklich das Ziel setzen, die Loop-Zeit auf unter 5 Minuten zu senken, und darum bitten, Fehlschläge schnell reproduzierbar zu machen
- Das ist ein testgetriebener Entwicklungsansatz (TDD) ähnlicher Ansatz, der die Geschwindigkeit wiederholter Experimente erhöht
- Klare Erfolgskriterien maximieren die Effizienz von LLMs
- Gibt man konkrete Bedingungen wie „Reproduziere den Fehlerfall innerhalb von 5 Minuten“ vor, kann das LLM Codepfade optimieren und Unnötiges entfernen
- Mit einem so schnellen Feedback-Loop sinkt der Kontextverbrauch, und das Modell arbeitet „intelligenter“
Fazit
- Die Erschöpfung bei der Arbeit mit LLMs kann oft kein technisches Problem, sondern ein „skill issue“ sein
- Kognitive Erschöpfung und cognitive outsourcing sind Fallstricke, die die Produktivität verringern
- Es ist ratsam, nur dann weiterzumachen, wenn der Prompting-Prozess Freude macht und man überzeugt ist, mit dem Ergebnis zu über 95 % zufrieden zu sein
- Wenn sich langsamer Fortschritt und Kontextüberlastung bemerkbar machen, sollte genau das zur eigentlichen Aufgabe werden: gemeinsam mit dem LLM eine schnellere Iterationsstruktur zu entwerfen
Noch keine Kommentare.