- Importfunktion für Erinnerungen, mit der sich persönliche Einstellungen und Kontext aus anderen AI-Diensten in Claude übernehmen lassen
- Bereits gelesener bestehender Kontext kann über einen bestimmten Prompt per Copy-and-paste in Claudes Memory übernommen werden
- Die Funktion ist in allen kostenpflichtigen Tarifen verfügbar, sodass Nutzer ihre aus bisherigen AIs gelernte Personalisierung unverändert beibehalten können
- Claude verwaltet den Projektkontext getrennt pro Unterhaltung, und Nutzer können alle gespeicherten Informationen vollständig einsehen und bearbeiten
- Eine Funktion, die auch beim Wechsel zu einer neuen AI die Kontinuität der Nutzererfahrung sicherstellt und so zur Produktivitätssteigerung beiträgt
Überblick über die Claude-Funktion zum Importieren von Erinnerungen
- Eine Funktion, die dafür entwickelt wurde, dass Nutzer beim Wechsel von einem anderen AI-Anbieter zu Claude ihren bisherigen Kontext beibehalten können
- Mit einem einzigen Copy-and-paste-Vorgang lernt Claude die bisherigen Präferenzen und Arbeitsweisen des Nutzers
- Auf Basis der importierten Informationen liefert Claude Antworten in der Kontinuität früherer Gespräche
- Die Memory-Funktion ist in allen kostenpflichtigen Plänen verfügbar
Importvorgang
- Schritt 1: Den bereitgestellten Prompt in einen Chat mit einem anderen AI-Anbieter kopieren und einfügen
- Dieser Prompt ist darauf ausgelegt, den gesamten Kontext des Nutzers in einer Unterhaltung zu bündeln
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
- Dieser Prompt ist darauf ausgelegt, den gesamten Kontext des Nutzers in einer Unterhaltung zu bündeln
- Schritt 2: Das Ergebnis auf der Memory-Einstellungsseite von Claude einfügen – fertig
- Claude aktualisiert die Erinnerungen sofort und berücksichtigt diese Informationen in nachfolgenden Gesprächen
So funktioniert Claudes Memory
- Claude speichert Präferenzen pro Unterhaltung und Projektkontext getrennt
- So wird verhindert, dass Informationen zwischen unterschiedlichen Projekten vermischt werden
- Nutzer können alles, woran Claude sich erinnert, direkt einsehen und bearbeiten
Kontinuität der Nutzererfahrung
- Auch beim Wechsel von einer anderen AI zu Claude geht der bisher gelernte Kontext nicht verloren
- Schon ab dem ersten Gespräch bleibt das bisherige Verständnisniveau erhalten
- Claude bietet sofort eine personalisierte Nutzererfahrung und sorgt auch in einer neuen Umgebung für einen konsistenten Arbeitsablauf
1 Kommentare
Hacker-News-Kommentare
Ich frage mich, ob mir jemand den Reiz eines kontoweiten Speichers (account-wide memory) erklären kann
Das Marketing von Anthropic behauptet zwar, dass Informationen nicht zwischen Gesprächen vermischt werden, aber ich bin beim Schutz meines Kontexts sehr sensibel und finde es unangenehm, wenn selbst zusammengefasste Informationen aus anderen Unterhaltungen das Ergebnis beeinflussen
Dinge wie Codestil oder Antwortlänge lassen sich meiner Meinung nach schon ausreichend über benutzerdefinierte Anweisungen oder Skills festlegen
Letztlich wirkt so eine Funktion wie UX, die auf ein massentaugliches Nutzungsmuster zugeschnitten ist
Je mehr ich es benutze, desto nützlicher wird es, also eine Art positive Rückkopplungsschleife
Zum Beispiel habe ich einen QBO-API-Schlüssel verbunden und Steuerunterlagen prüfen lassen, woraufhin es einen Abschreibungsposten gefunden hat, den mein CPA übersehen hatte
Als ich später in einem völlig neuen Ordner die Steuererklärung erneut erzeugen ließ, war sie fast perfekt, nur genau der zuvor entdeckte Abzug fehlte
Für mich ist diese Anreicherung von Kontext entscheidend für eine höhere Ergebnisqualität
So können sie sich beraten lassen, ohne jedes Mal alles erneut erklären zu müssen
Sie kennen Konzepte wie „Kontext“ oder „Token-Limits“ nicht und gehen davon aus, dass das Modell alles gleichzeitig weiß
Ich mag es nicht, wenn frühere Gespräche das Ergebnis beeinflussen, aber inzwischen fühlt sich das ziemlich umständlich an
Wenn ich jedes Mal bei einer Frage wie „Was sollte John als Nächstes in Projekt A tun?“ wieder erklären muss, wer John ist und worum es im Projekt geht, ist das ineffizient
Es erinnerte sich an ein Projekt von vor mehreren Monaten
Man kann die Speicherfunktion zwar abschalten, aber ehrlich gesagt glaube ich nicht, dass das besonders nützlich wäre
Es wurde ein Beispiel-Prompt zum Exportieren von Daten geteilt
Es ist ein Befehl nach dem Muster „Gib all meine Daten in einem Codeblock aus“, und ich frage mich, ob solche Anfragen im Frontend absichtlich verlangsamt werden könnten
Ich halte es für möglich, dass man so etwas zur Erreichung von KPIs tun würde
In Claude 5.2 bekommt man nur sehr stark zusammengefasste Informationen, während 5.1 instant oder das o3-Modell deutlich ausführlichere Inhalte zurückgeben
Außerdem wäre bei so einem Verhalten das Reputationsrisiko viel zu groß, als dass es sich lohnen würde
Ich habe in den letzten Wochen Codex, OpenCode, Claude Code und Cursor alle getestet
Jedes Tool hat eine andere Art der MCP-Server-Konfiguration oder andere Namenskonventionen für AGENTS/CLAUDE-Dateien, weshalb sich universelle Konfigurationen nur schwer in Dotfiles verwalten lassen
Selbst als Produkte großer Unternehmen haben sie grundlegende Probleme wie TUI-Latenz, Electron-Abhängigkeit und fehlende Unterstützung für XDG_CONFIG noch immer nicht gelöst
Claude wirkt so, als funktioniere es in seiner eigenen Umgebung besser, und es gibt viele versteckte Funktionen wie
/batchAußerdem unterscheiden sich die Vendoren darin, wie sie Programme in einer VM steuern, was die Wechselkosten erhöht
Seit ich zu Claude gewechselt bin, merke ich deutlich, dass das Token-Limit viel schneller aufgebraucht ist
Schon ein paar Coding-Fragen reichen, um das Session-Limit zu erreichen
Früher reichte mir Codex für 20 Dollar, jetzt denke ich über den Max-Tarif nach
Codex hat das Problem sofort behoben, während Claude nach einer Fehldiagnose einen langen Korrekturprozess brauchte und am Ende das 5-Stunden-Limit aufgebraucht war
Es wurde Anthropic vorgeschlagen, „AGENTS.md zu vereinheitlichen“
Aber wenn sie schon nur den offenen Standard AGENTS.md oder /.agents/skills unterstützen würden, könnten sie damit das Vertrauen der Community gewinnen
Das zugehörige Issue ist GitHub #16345
Deshalb könnte es sogar weniger verwirrend sein, unterschiedliche Dateinamen beizubehalten
Oder man schreibt in CLAUDE.md einfach nur eine Zeile mit „@AGENTS.md“, dann funktioniert es ebenfalls
Der Verlust an Marketingwert wäre minimal, daher hoffe ich, dass Anthropic diesen Vorschlag intern unbedingt prüft
Ich bin bereits vollständig zu Claude gewechselt
Ich habe mein ChatGPT-Abo gekündigt und entschieden, OpenAI nicht zu vertrauen
Ich halte es für wahrscheinlich, dass sie AGI missbrauchen werden
Anders als bei ChatGPT, das oft ausschweifend ist, hatte ich eher das Gefühl, meine Konzentration zurückzugewinnen
Die Genauigkeit vergleiche ich noch, aber der erste Eindruck ist gut
Bei Gemini oder ChatGPT wurden oft Variablennamen oder Definitionen verändert, wodurch der Code kaputtging
Intuitiv hatte ich dabei sofort das Gefühl: Das ist nicht in Ordnung
So ähnlich wie ein privater Minecraft-Server, der auf Vertrauen basiert
Die Ethikabteilung war womöglich nur ein Hindernis für die Anhäufung von Reichtum
Ich nutze Claude seit über einem Jahr, denke aber seit dem jüngsten DoW-Vorfall über europäische Alternativmodelle nach
Ich überlege, Devstral 2 auszuprobieren, und frage mich, ob es eher auf dem Niveau von Sonnet 3.5 oder 4.5 liegt
Bei der „Memory“-Funktion habe ich gemischte Gefühle
Manchmal wirkt sie magisch, aber oft ist sie wegen Kontextverschmutzung unangenehm
Wenn Spuren früherer Gespräche in neue Unterhaltungen einfließen, sinkt mein Vertrauen
Deshalb prüfe ich regelmäßig die gespeicherten Erinnerungen manuell und lösche falsche Informationen
Ich beschränke mich darauf, nur grundlegende Umgebungssachen wie Betriebssystem oder Sprache in den System-Prompt zu schreiben
Zu viel Anpassung macht das Modell meiner Meinung nach anfälliger
Ich verwalte meine Forschungsnotizen mit Claude Code, und der Speicher hat den Nebeneffekt, den Erkundungsspielraum auf meine Interessen zu verengen
Außerdem landet manchmal Unsinn im Speicher
Ich habe das Gefühl, dass Unternehmen solche Systeme viel zu schlampig bauen
Im Vercel-Blog heißt es ebenfalls, dass der Ansatz mit Agents.md besser sei als Skills
Wenn man sich Seiten wie skills.sh anschaut, sieht man viele Skills von geringer Qualität
Jetzt ist der Zeitpunkt gekommen, sich statt auf Geschwindigkeit auf Präzision und Qualität zu konzentrieren
Jedes Mal, wenn ich eine neue Umgebung einrichte, konfiguriere ich sie gern wieder von Grund auf neu
Es macht mir Spaß, ein neues System zu erkunden und dabei meine Vorlieben zu aktualisieren
Ich finde es abstoßend, wie sie sich selbst als „gutes Unternehmen“ inszeniert haben
Mit der Zusammenarbeit mit Palantir haben sie die schmutzige Arbeit erledigen lassen und danach per PR ihr Image aufpoliert
Ich hoffe, dass Open-Source-Modelle sich weiter verbessern, damit wir nicht mehr von solchen Großunternehmen abhängig sind