- Der System-Prompt ist die Grundeinstellung, die festlegt, wie ein LLM arbeiten soll, einschließlich Tonfall, Tool-Nutzung und Konfiguration von externem Wissen
- Claudes Prompt umfasst 16.739 Wörter und 110 KB und ist damit mehr als siebenmal so groß wie der o4-mini-Prompt von ChatGPT mit 2.218 Wörtern und 15,1 KB
- Der Abschnitt Tool-Definitionen ist am umfangreichsten und besteht aus Informationen, die von MCP-Servern bezogen werden
- Beispiel: Das Tool
web_search verlangt nur einen Parameter, "query", während das Google-Drive-Such-Tool so komplex ist, dass allein seine Beschreibung 1.700 Wörter umfasst
- Neben den Tool-Definitionen enthält der Prompt auch Nutzungsrichtlinien zu Zitaten (Citations), Artefakten (Artifacts), Suche (Search) und Hinweisen zur Google-Integration
- Beispiel: Es gibt wiederholte Anweisungen, das Such-Tool nicht zu verwenden, wenn die Information bereits bekannt ist
- Enthalten sind auch verschiedene Hotfix-Anweisungen zur Kompensation von Schwächen von LLMs, etwa für den Umgang mit Rätseln, zur Vermeidung von Informationsverwechslungen und zur Verbesserung poetischer Formulierungen
- Es stellt sich die Frage, mit welcher Software Anthropic diesen komplexen Prompt versionsverwaltet
- Angesichts der vielen verstreuten Hotfixes ist unklar, ob sie in Echtzeit ergänzt oder nach Evaluierung gebündelt ausgerollt werden
- Ebenso ist fraglich, wann die Entscheidung fällt, all das zu verwerfen und mit einem neuen Prompt einen Reset zu machen
- Ein so gewaltiger System-Prompt zeigt, dass ein Chatbot nicht einfach nur das Modell selbst ist, sondern ein komplexes System aus Design, Tools und angesammeltem Feedback
- Geleakter System-Prompt von Claude
- Claudes System-Prompt verwendet mit Tools über 24k Token
1 Kommentare
Anthropic veröffentlicht den „System Prompt“, der Claude antreibt
Der direkt veröffentlichte System Prompt ist nicht besonders umfangreich. Der toolbezogene Teil scheint zu fehlen.