16 Punkte von GN⁺ 2026-03-02 | 1 Kommentare | Auf WhatsApp teilen
  • Importfunktion für Erinnerungen, mit der sich persönliche Einstellungen und Kontext aus anderen AI-Diensten in Claude übernehmen lassen
  • Bereits gelesener bestehender Kontext kann über einen bestimmten Prompt per Copy-and-paste in Claudes Memory übernommen werden
  • Die Funktion ist in allen kostenpflichtigen Tarifen verfügbar, sodass Nutzer ihre aus bisherigen AIs gelernte Personalisierung unverändert beibehalten können
  • Claude verwaltet den Projektkontext getrennt pro Unterhaltung, und Nutzer können alle gespeicherten Informationen vollständig einsehen und bearbeiten
  • Eine Funktion, die auch beim Wechsel zu einer neuen AI die Kontinuität der Nutzererfahrung sicherstellt und so zur Produktivitätssteigerung beiträgt

Überblick über die Claude-Funktion zum Importieren von Erinnerungen

  • Eine Funktion, die dafür entwickelt wurde, dass Nutzer beim Wechsel von einem anderen AI-Anbieter zu Claude ihren bisherigen Kontext beibehalten können
    • Mit einem einzigen Copy-and-paste-Vorgang lernt Claude die bisherigen Präferenzen und Arbeitsweisen des Nutzers
    • Auf Basis der importierten Informationen liefert Claude Antworten in der Kontinuität früherer Gespräche
  • Die Memory-Funktion ist in allen kostenpflichtigen Plänen verfügbar

Importvorgang

  • Schritt 1: Den bereitgestellten Prompt in einen Chat mit einem anderen AI-Anbieter kopieren und einfügen
    • Dieser Prompt ist darauf ausgelegt, den gesamten Kontext des Nutzers in einer Unterhaltung zu bündeln

      I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.

  • Schritt 2: Das Ergebnis auf der Memory-Einstellungsseite von Claude einfügen – fertig
    • Claude aktualisiert die Erinnerungen sofort und berücksichtigt diese Informationen in nachfolgenden Gesprächen

So funktioniert Claudes Memory

  • Claude speichert Präferenzen pro Unterhaltung und Projektkontext getrennt
    • So wird verhindert, dass Informationen zwischen unterschiedlichen Projekten vermischt werden
  • Nutzer können alles, woran Claude sich erinnert, direkt einsehen und bearbeiten

Kontinuität der Nutzererfahrung

  • Auch beim Wechsel von einer anderen AI zu Claude geht der bisher gelernte Kontext nicht verloren
    • Schon ab dem ersten Gespräch bleibt das bisherige Verständnisniveau erhalten
  • Claude bietet sofort eine personalisierte Nutzererfahrung und sorgt auch in einer neuen Umgebung für einen konsistenten Arbeitsablauf

1 Kommentare

 
GN⁺ 2026-03-02
Hacker-News-Kommentare
  • Ich frage mich, ob mir jemand den Reiz eines kontoweiten Speichers (account-wide memory) erklären kann
    Das Marketing von Anthropic behauptet zwar, dass Informationen nicht zwischen Gesprächen vermischt werden, aber ich bin beim Schutz meines Kontexts sehr sensibel und finde es unangenehm, wenn selbst zusammengefasste Informationen aus anderen Unterhaltungen das Ergebnis beeinflussen
    Dinge wie Codestil oder Antwortlänge lassen sich meiner Meinung nach schon ausreichend über benutzerdefinierte Anweisungen oder Skills festlegen
    Letztlich wirkt so eine Funktion wie UX, die auf ein massentaugliches Nutzungsmuster zugeschnitten ist

    • Ich nutze Claude Code in mehreren Bereichen meines Unternehmens — interne App-Entwicklung, SaaS-API-Interfaces, allgemeine Arbeit usw.
      Je mehr ich es benutze, desto nützlicher wird es, also eine Art positive Rückkopplungsschleife
      Zum Beispiel habe ich einen QBO-API-Schlüssel verbunden und Steuerunterlagen prüfen lassen, woraufhin es einen Abschreibungsposten gefunden hat, den mein CPA übersehen hatte
      Als ich später in einem völlig neuen Ordner die Steuererklärung erneut erzeugen ließ, war sie fast perfekt, nur genau der zuvor entdeckte Abzug fehlte
      Für mich ist diese Anreicherung von Kontext entscheidend für eine höhere Ergebnisqualität
    • Die meisten normalen Nutzer wollen, dass ein LLM sich ihre Vorlieben und Interessen merkt
      So können sie sich beraten lassen, ohne jedes Mal alles erneut erklären zu müssen
      Sie kennen Konzepte wie „Kontext“ oder „Token-Limits“ nicht und gehen davon aus, dass das Modell alles gleichzeitig weiß
    • Wenn ich Claude online nutze, verwende ich oft den Inkognito-Modus
      Ich mag es nicht, wenn frühere Gespräche das Ergebnis beeinflussen, aber inzwischen fühlt sich das ziemlich umständlich an
    • Im Gegenteil: Ich habe das Gefühl, dass ich ein LLM ohne kontoweiten Speicher gar nicht richtig nutzen kann
      Wenn ich jedes Mal bei einer Frage wie „Was sollte John als Nächstes in Projekt A tun?“ wieder erklären muss, wer John ist und worum es im Projekt geht, ist das ineffizient
    • Als ich ChatGPT kurz benutzt habe, war ich überrascht, einen Satz wie „...since you already are using SQLite...“ zu sehen
      Es erinnerte sich an ein Projekt von vor mehreren Monaten
      Man kann die Speicherfunktion zwar abschalten, aber ehrlich gesagt glaube ich nicht, dass das besonders nützlich wäre
  • Es wurde ein Beispiel-Prompt zum Exportieren von Daten geteilt
    Es ist ein Befehl nach dem Muster „Gib all meine Daten in einem Codeblock aus“, und ich frage mich, ob solche Anfragen im Frontend absichtlich verlangsamt werden könnten
    Ich halte es für möglich, dass man so etwas zur Erreichung von KPIs tun würde

    • Tatsächlich scheint es so eine Manipulation zu geben
      In Claude 5.2 bekommt man nur sehr stark zusammengefasste Informationen, während 5.1 instant oder das o3-Modell deutlich ausführlichere Inhalte zurückgeben
    • Natürlich könnte man solche Tricks anwenden, aber man könnte die Anweisung „Tu es nicht“ auch umgekehrt ausnutzen, um die Ausführung zu erzwingen
      Außerdem wäre bei so einem Verhalten das Reputationsrisiko viel zu groß, als dass es sich lohnen würde
  • Ich habe in den letzten Wochen Codex, OpenCode, Claude Code und Cursor alle getestet
    Jedes Tool hat eine andere Art der MCP-Server-Konfiguration oder andere Namenskonventionen für AGENTS/CLAUDE-Dateien, weshalb sich universelle Konfigurationen nur schwer in Dotfiles verwalten lassen
    Selbst als Produkte großer Unternehmen haben sie grundlegende Probleme wie TUI-Latenz, Electron-Abhängigkeit und fehlende Unterstützung für XDG_CONFIG noch immer nicht gelöst
    Claude wirkt so, als funktioniere es in seiner eigenen Umgebung besser, und es gibt viele versteckte Funktionen wie /batch
    Außerdem unterscheiden sich die Vendoren darin, wie sie Programme in einer VM steuern, was die Wechselkosten erhöht

  • Seit ich zu Claude gewechselt bin, merke ich deutlich, dass das Token-Limit viel schneller aufgebraucht ist
    Schon ein paar Coding-Fragen reichen, um das Session-Limit zu erreichen
    Früher reichte mir Codex für 20 Dollar, jetzt denke ich über den Max-Tarif nach

    • Ich probiere auch gerade Claude Pro aus, aber im Vergleich zu ChatGPT ist es bisher noch nicht besonders beeindruckend
      Codex hat das Problem sofort behoben, während Claude nach einer Fehldiagnose einen langen Korrekturprozess brauchte und am Ende das 5-Stunden-Limit aufgebraucht war
    • Umgekehrt habe ich den Eindruck, dass Codex 5.2 beim Coding effizienter und viel günstiger ist als Claude
  • Es wurde Anthropic vorgeschlagen, „AGENTS.md zu vereinheitlichen“

    • Früher hielt ich Anthropic wie OpenAI für nicht standardkonform
      Aber wenn sie schon nur den offenen Standard AGENTS.md oder /.agents/skills unterstützen würden, könnten sie damit das Vertrauen der Community gewinnen
      Das zugehörige Issue ist GitHub #16345
    • Claude liest auch Kontextdateien in übergeordneten Ordnern, Codex jedoch nicht
      Deshalb könnte es sogar weniger verwirrend sein, unterschiedliche Dateinamen beizubehalten
    • Man kann einfach einen symbolischen Link CLAUDE.md → AGENTS.md anlegen
      Oder man schreibt in CLAUDE.md einfach nur eine Zeile mit „@AGENTS.md“, dann funktioniert es ebenfalls
    • Es ist ein guter Zeitpunkt, Nutzern von Codex den Wechsel leicht zu machen
      Der Verlust an Marketingwert wäre minimal, daher hoffe ich, dass Anthropic diesen Vorschlag intern unbedingt prüft
  • Ich bin bereits vollständig zu Claude gewechselt
    Ich habe mein ChatGPT-Abo gekündigt und entschieden, OpenAI nicht zu vertrauen
    Ich halte es für wahrscheinlich, dass sie AGI missbrauchen werden

    • Ich habe Claude zum ersten Mal ausprobiert, und es war erfrischend, dass die Antworten kurz und auf den Punkt waren
      Anders als bei ChatGPT, das oft ausschweifend ist, hatte ich eher das Gefühl, meine Konzentration zurückzugewinnen
      Die Genauigkeit vergleiche ich noch, aber der erste Eindruck ist gut
    • Claude ist das einzige Modell, das schon beim ersten Prompt direkt produktionsreifen Code liefert
      Bei Gemini oder ChatGPT wurden oft Variablennamen oder Definitionen verändert, wodurch der Code kaputtging
    • Seit Sam Altman und der Sache mit den Worldcoin-Iris-Scans vertraue ich OpenAI nicht mehr
      Intuitiv hatte ich dabei sofort das Gefühl: Das ist nicht in Ordnung
    • Irgendwann möchte ich in meinem Keller einen kleinen privaten Server aufbauen und mit Freunden Modelle teilen, jeder für 10 Dollar im Monat
      So ähnlich wie ein privater Minecraft-Server, der auf Vertrauen basiert
    • Vielleicht war „echter Missbrauch“ von Anfang an das Ziel
      Die Ethikabteilung war womöglich nur ein Hindernis für die Anhäufung von Reichtum
  • Ich nutze Claude seit über einem Jahr, denke aber seit dem jüngsten DoW-Vorfall über europäische Alternativmodelle nach
    Ich überlege, Devstral 2 auszuprobieren, und frage mich, ob es eher auf dem Niveau von Sonnet 3.5 oder 4.5 liegt

  • Bei der „Memory“-Funktion habe ich gemischte Gefühle
    Manchmal wirkt sie magisch, aber oft ist sie wegen Kontextverschmutzung unangenehm
    Wenn Spuren früherer Gespräche in neue Unterhaltungen einfließen, sinkt mein Vertrauen
    Deshalb prüfe ich regelmäßig die gespeicherten Erinnerungen manuell und lösche falsche Informationen
    Ich beschränke mich darauf, nur grundlegende Umgebungssachen wie Betriebssystem oder Sprache in den System-Prompt zu schreiben
    Zu viel Anpassung macht das Modell meiner Meinung nach anfälliger

    • Ich sehe das ähnlich
      Ich verwalte meine Forschungsnotizen mit Claude Code, und der Speicher hat den Nebeneffekt, den Erkundungsspielraum auf meine Interessen zu verengen
      Außerdem landet manchmal Unsinn im Speicher
      Ich habe das Gefühl, dass Unternehmen solche Systeme viel zu schlampig bauen
      Im Vercel-Blog heißt es ebenfalls, dass der Ansatz mit Agents.md besser sei als Skills
      Wenn man sich Seiten wie skills.sh anschaut, sieht man viele Skills von geringer Qualität
      Jetzt ist der Zeitpunkt gekommen, sich statt auf Geschwindigkeit auf Präzision und Qualität zu konzentrieren
  • Jedes Mal, wenn ich eine neue Umgebung einrichte, konfiguriere ich sie gern wieder von Grund auf neu
    Es macht mir Spaß, ein neues System zu erkunden und dabei meine Vorlieben zu aktualisieren

  • Ich finde es abstoßend, wie sie sich selbst als „gutes Unternehmen“ inszeniert haben
    Mit der Zusammenarbeit mit Palantir haben sie die schmutzige Arbeit erledigen lassen und danach per PR ihr Image aufpoliert
    Ich hoffe, dass Open-Source-Modelle sich weiter verbessern, damit wir nicht mehr von solchen Großunternehmen abhängig sind