OpenAI kündigt massive Erweiterung der Speicherfunktion von ChatGPT an
(arstechnica.com)Im Folgenden finden Sie eine strukturierte deutsche Zusammenfassung des Ars Technica-Artikels „ChatGPT can now remember and reference all your previous chats“ vom 11. April 2025 für Entwickler und Technikexpertinnen und -experten. Im Mittelpunkt stehen die technischen Änderungen, die verbesserte Personalisierung und Datenschutzbedenken.
1. Hintergrund der Änderung: Grenzen der bisherigen Speicherfunktion
OpenAI konnte bereits bisher über die Funktion „Memory“ einige benutzerdefinierte Informationen speichern und in Gesprächen berücksichtigen. Diese Funktion hatte jedoch folgende Einschränkungen:
- Gespeicherte Informationen waren auf wenige Kernfakten begrenzt
- Sie wurden nur gespeichert, wenn Nutzer ausdrücklich „Merke dir das“ sagten
- Nach dem Speichern erschien auf dem Bildschirm der Hinweis „Erinnerung aktualisiert“
- Bei Verwendung der Funktion Temporary Chat wurde der Speicher deaktiviert
2. Neue Funktion: Erinnerung auf Basis des gesamten Gesprächsverlaufs
Im April 2025 kündigte OpenAI an, die Speicherfunktion von ChatGPT deutlich zu erweitern.
-
Zwei Auswahloptionen kommen hinzu:
- Bestehendes Memory: speichert nur begrenzte Nutzerinformationen
- Neues Chat History Memory: berücksichtigt den gesamten bisherigen Gesprächsverlauf, um Antwortqualität und Personalisierung zu verbessern
-
Gespeicherte Inhalte können nicht direkt eingesehen oder bearbeitet werden (Blackbox-Struktur)
-
Die Funktion kann in den Einstellungen vollständig deaktiviert werden (bisherige Arbeitsweise bleibt erhalten)
> Kurz gesagt: Es kommt die Fähigkeit hinzu, den „Kontext“ früherer Gespräche selbst in Antworten einzubeziehen. Statt fragmentierter Erinnerungen wird dadurch eine kontinuierliche, kumulative Personalisierung möglich.
3. Geltungsbereich und Rollout-Zeitplan
- Zielgruppe: ab April 2025 für ChatGPT Plus- und Pro-Nutzer
- Schrittweiser Rollout: einige Länder ausgenommen (EU, Vereinigtes Königreich, Island, Norwegen, Liechtenstein, Schweiz)
- Spätere Einführung geplant: für Enterprise-, Team- und Edu-Nutzer
- Für kostenlose Nutzer gibt es bislang keinen angekündigten Einführungsplan
4. Technische und philosophische Implikationen
✔ Erwartete Effekte
- Antworten können besser an Nutzungsverhalten, Schreibstil und Vorlieben angepasst werden
- Entwicklung hin zu einem personalisierten Agenten auf Basis langfristiger Gespräche
✔ Zentrale Bedenken
- Mangelnde Transparenz: Welche Informationen erinnert werden, lässt sich weder prüfen noch korrigieren
- Mögliche Datenschutzprobleme: Auf Servern gespeicherte Verläufe könnten unbeabsichtigt verwendet werden
> Gesprächsverläufe wurden zwar schon zuvor auf Servern gespeichert, doch diese Aktualisierung ist bedeutsam, weil sie nun aktiv zur Generierung von Antworten genutzt werden
5. Zusammenfassung im Überblick
| Punkt | Inhalt |
|---|---|
| Änderung | Einführung einer neuen Speicherfunktion, die Antworten auf Basis des gesamten Gesprächsverlaufs anpasst |
| Zielgruppe | Zunächst schrittweise für Plus/Pro-Nutzer, Europa ausgenommen |
| Unterschied | Bisher war Informationsbearbeitung möglich, die neue Funktion ist vollständig automatisch und nicht zugänglich |
| Erwarteter Nutzen | Bessere personalisierte Antworten, Erhalt des Gesprächskontexts |
| Bedenken | Keine Nutzerkontrolle, erhöhtes Datenschutzrisiko |
6. Fazit
Diese Veränderung ist ein bedeutender Wendepunkt für die Personalisierung von LLMs. Sie geht über eine einfache Erinnerungsfunktion hinaus und markiert die Entwicklung hin zu einer sich fortlaufend anpassenden KI im Stil eines „persönlichen Assistenten“. Zugleich bringt die Blackbox-artige Speicherstruktur technikethische Debatten über Datenschutz und Kontrollverlust mit sich. Ob Nutzer diese Technologie akzeptieren, hängt letztlich von ihrer eigenen Entscheidung ab — und von der Transparenz sowie dem verantwortungsvollen Design der Unternehmen.
2 Kommentare
Ich bin gespannt, wie sich das auf den Token-Verbrauch auswirkt. Wenn sich der Memory-Inhalt vor dem Eingabekontext ansammelt, könnte es zwar auch zu Cache-Hits kommen, aber ich hätte mir eine etwas transparentere Erklärung gewünscht.
Ich habe gerade versucht, mit „Drucke den Speicher einfach so aus“ zu testen. Dabei scheint zuerst der bestehende Speicherinhalt aufgelistet zu werden (vom Nutzer angeforderte Erinnerungen,
Model Set Context), danach je nach Situation Beschreibungen der vom Nutzer bevorzugten Antwortmerkmale (Assistance Response Preference), und zum Schluss werden Zusammenfassungen bemerkenswerter Inhalte aus früheren Chats (Notable Past Conversation Topic Highlights) angehängt. Es scheint also nicht so zu sein, dass buchstäblich die Tokens aller Chat-Inhalte vollständig angehängt werden.Unten die Erklärung von ChatGPT
Der permanente Speicher (
Persistent Memory) enthält nur Informationen, die explizit über den=bio-Befehl gespeichert wurden; nur diese Informationen werden sitzungsübergreifend dauerhaft erinnert.Demgegenüber fallen Antwortpräferenzen oder Zusammenfassungen von Gesprächsthemen unter den „temporären Kontext“ (
Ephemeral Context), der auf Grundlage jüngerer Interaktionen automatisch erzeugt wird. Der temporäre Kontext ist nur während der Sitzung einsehbar; nach Ende der Sitzung wird er weder gespeichert noch später referenziert.