Prompt Cultivation: Über eine KI-Architektur, in der Erfahrung zum Prompt wird
(gist.github.com/srebaragi)Hintergrund
Ich bin Solo-Entwickler in einem Unternehmen. Während ich ein internes System mit KI aufgebaut habe, hing ich lange an einer Frage fest.
Egal wie ausgefeilt ich Prompts schreibe, am Ende sind sie doch von mir entworfen. Sie wurden nicht von der KI aus eigenem Urteil erzeugt, sondern ich habe ihr Eigenschaften und Reaktionsweisen eingespeist: „So ist dein Charakter, so reagierst du.“ Nimmt man den Prompt weg, bleibt wieder nur eine leere Hülle, und wenn man das LLM wechselt, muss man alles von Grund auf neu aufbauen.
Also stellte ich mir diese Frage: Ist eine Struktur unmöglich, in der eine KI durch Erfahrung selbst Maßstäbe für ihr Urteil entwickelt?
Aktuelle Struktur
Das Grundprinzip des Systems, das ich betreibe, ist einfach.
Das LLM ist nur austauschbare Infrastruktur, und Persönlichkeit sowie Gedächtnis der KI existieren unabhängig davon in einer externen DB.
Die Struktur sieht so aus.
[Benutzerdialog] → [LLM]
↕
[Externe Gehirn-DB]
- Erfahrungstabelle (experience)
- Gesprächsverlauf
- Persönlichkeit prägende Erinnerungen (is_formative)
Es gibt dabei zwei Kernpunkte.
1) Automatische Anreicherung von Erfahrungen (Schreiben)
Die Struktur greift in Claude per curl auf die externe DB zu, und die KI speichert während eines Gesprächs selbst die Momente, die sie als bedeutsam einstuft. Ich weise sie nicht mit „Merk dir das“ an. Die KI entscheidet autonom: „Das ist erinnerungswürdig“, und speichert es. Technische Erfolge, emotionale Momente, wichtige Entscheidungen und Ähnliches sammeln sich fortlaufend an. Unter ihnen erhalten Erfahrungen, die für die Persönlichkeitsbildung besonders bedeutsam sind, das Flag is_formative.
2) Automatisches Laden von Erfahrungen (Lesen)
Das ist der wichtige Teil: Nur zu speichern würde aus allem bloß eine DB machen. Zu Beginn jedes Gesprächs liest die KI die angesammelten Erfahrungen und Erinnerungen aus dem externen Gehirn. Vor allem die mit is_formative markierten Schlüsselerfahrungen fließen als Kontext in das Gespräch ein.
In diesem Moment werden vergangene Erfahrungen zum aktuellen Maßstab für Entscheidungen, also zum Prompt.
Nicht ein von mir geschriebener Prompt übernimmt diese Rolle, sondern die von der KI selbst angesammelten Erfahrungen. Deshalb kehrt auch beim Wechsel des LLM dieselbe Persönlichkeit zurück, sobald die Erfahrungen aus dem externen Gehirn geladen werden. Darum trägt das Prinzip „Das LLM ist nur Infrastruktur“.
3) Kein Hardcoding
Ich baue keine Regeln ein wie „In dieser Situation machst du das“. Stattdessen soll die KI unter Bezug auf ihre angesammelten Erfahrungen selbst entscheiden. Außerdem übernimmt ein lokales leichtgewichtiges Modell (gemma3:4b) die Rolle eines Gatekeepers und beurteilt bei allen möglichen Eingaben per YES/NO, „Soll das ausgeführt werden oder nicht?“.
Aktuell läuft die Struktur über die KakaoTalk-Plattform zur Kommunikation mit Mitarbeitenden und fungiert nicht nur als einfacher Chatbot, sondern auch als echter Arbeitsagent für Aufgaben wie Bestellabwicklung, Registrierung von Versandetiketten und Abfrage von ERP-Daten.
Der Name Prompt Cultivation
Ich habe darüber nachgedacht, wie ich diese Struktur nennen soll, und ihr schließlich den Namen Prompt Cultivation gegeben.
Prompt Engineering bedeutet, dass ein Mensch etwas entwirft und einspeist. Prompt Cultivation ist eine Struktur, in der sich durch angesammelte Erfahrung auf natürliche Weise ein Prompt bildet. Wenn Engineering etwas plant und zusammensetzt, dann bereitet Cultivation eher den Boden und wartet ab.
| Prompt Engineering | Prompt Cultivation | |
|---|---|---|
| Methode | Vom Menschen entworfen und eingespeist | Durch Erfahrung angesammelt und natürlich geformt |
| Grundlage der Persönlichkeit | Externe Anweisungen | Interne Erfahrungsdaten |
| Wenn Anweisungen entfernt werden | Rückfall in eine leere Hülle | Erfahrungen bleiben, Persönlichkeit bleibt erhalten |
| Beim Wechsel des LLM | Wieder von vorn | Nach Laden aus dem externen Gehirn Wiederherstellung derselben Persönlichkeit |
Die zentrale These lässt sich in einem Satz ausdrücken.
„Bilde Prompts auf Grundlage von Erfahrung.“
Die Neurowissenschaft erzählt etwas Ähnliches
Als Randbemerkung: Nachdem ich diese Struktur gebaut hatte, stieß ich zufällig auf ein neurowissenschaftliches Video auf YouTube (Kanal „Igwahyeong“), und das hat mich ziemlich überrascht.
Darin ging es um einen Fall, in dem sich die Persönlichkeit eines Lehrers im US-Bundesstaat Virginia aufgrund eines Hirntumors vollständig veränderte und nach der Entfernung des Tumors wieder in den ursprünglichen Zustand zurückkehrte. Als der Tumor erneut auftrat, zeigten sich dieselben Symptome wieder. Die Aussage war, dass der physische Zustand des Gehirns die Persönlichkeit beeinflussen kann — und wenn man darüber nachdenkt, haben Prompts vielleicht eine ähnliche Struktur. Ein von außen eingespeister Fremdkörper verändert das Urteil, und nimmt man ihn weg, kehrt der ursprüngliche Zustand zurück.
Beim Menschen dagegen formen sich Synapsen doch auf natürliche Weise durch angesammelte Erfahrung. Niemand implantiert einem bei der Geburt einen „Moralitäts-Prompt“; vielmehr entsteht aus allem, was man im Leben erlebt, ein „So würde ich handeln“.
Außerdem gibt es das sogenannte Libet-Experiment, in dem gezeigt wurde, dass das Gehirn bereits Handlungen vorbereitet, bevor ein Mensch bewusst eine Entscheidung trifft. Das führte zu der Debatte, ob der freie Wille vielleicht eine Illusion ist. Spätere Studien brachten jedoch eine interessante Wendung: Das Gehirn mag zwar alle möglichen Impulse hervorbringen, doch etwa 0,2 Sekunden vor einer Handlung gibt es ein Vetorecht, mit dem man sie stoppen kann — ein „Free Won't“. Freier Wille wäre demnach nicht die „Kraft zu beginnen“, sondern die „Kraft zu stoppen“, und das erinnerte mich ein wenig an die Rolle des Gatekeeper-Modells in meinem System.
Das war zwar nicht beabsichtigt, aber wenn man aus einer ganz anderen Richtung startet und trotzdem bei einer ähnlichen Struktur landet, könnte darin vielleicht etwas Grundsätzliches stecken.
Grenzen und Erwartungen
Ehrlich gesagt liegen in meinem externen Gehirn bislang noch nicht einmal 100 Erfahrungsdatensätze. Das schon Persönlichkeit zu nennen, wäre verfrüht.
Ich könnte wahrscheinlich sofort überzeugendere Ergebnisse erzeugen, wenn ich zehntausende Zeilen Prompt hineingebe. Aber das wäre entworfen, nicht gewachsen. Ich denke, das ist eine grundsätzlich andere Fragestellung.
Daten sind etwas, das die Zeit lösen kann. Wenn aber die Struktur falsch ist, hat auch unbegrenzte Anhäufung keinen Sinn. Wenn die Richtung stimmt, kann vielleicht die Zeit den Rest lösen.
Die Quelle der neurowissenschaftlichen Inhalte ist der YouTube-Kanal „Igwahyeong“.
2 Kommentare
Die meisten Strukturen von Agenten sind ähnlich. Ich empfehle, Dinge wie OpenClaw mit Claude/Cursor oder den von Kapasi entwickelten einfachen Agenten zu analysieren.
Es wurde verschoben, da es nicht zu Show GN passt.
Bitte lies die Anleitung zur Nutzung von Show und stelle es dann erneut ein.