- Anthropic hat die Nutzungsbedingungen für Verbraucher und die Datenschutzrichtlinie aktualisiert
- Nutzer können nun selbst wählen, ob ihre Daten zur Verbesserung des Modells verwendet werden dürfen
- Gilt für die Pläne Claude Free, Pro und Max; bestehende Nutzer kommerzieller Services und der API sind ausgenommen
- Wer der Datennutzung zustimmt, kann zur Verbesserung der Modellsicherheit und zu Funktionsverbesserungen künftiger Modelle, etwa beim Coding, beitragen
- Zustimmung zur Datennutzung, Dauer und Änderungen lassen sich jederzeit in den Einstellungen verwalten
Die wichtigsten Änderungen im Überblick
- Anthropic hat die Nutzungsbedingungen für Verbraucher und die Datenschutzrichtlinie aktualisiert, um die Leistung von Claude AI zu verbessern und den Schutz der Nutzer zu stärken
- Nutzer können wählen, ob sie ihre Daten für die Verbesserung von Claudes Modell sowie die Verstärkung der Sicherheitsmechanismen bereitstellen möchten
- In den Einstellungen lässt sich jederzeit anpassen, ob Daten bereitgestellt werden
Geltungsbereich und Ausnahmen
- Dieses Update gilt nur für die Pläne Claude Free, Pro und Max sowie für Nutzer von Claude Code innerhalb dieser Pläne
- Services unter kommerziellen Vertragsbedingungen, also Claude for Work, Claude Gov, Claude for Education und die API-Nutzung (einschließlich über Drittanbieter, z. B. Amazon Bedrock, Google Cloud Vertex AI), sind davon nicht betroffen
Auswirkungen der Zustimmung zur Datennutzung
- Wer der Bereitstellung von Daten zustimmt, trägt sowohl zur Verbesserung der Modellsicherheit als auch zu einer höheren Genauigkeit von Systemen zur Verhinderung von Schäden und Missbrauch bei
- Dies kann auch zur Weiterentwicklung verschiedener Fähigkeiten künftiger Claude-Modelle wie Coding, Analyse und Reasoning beitragen
- Diese Einstellung bleibt jederzeit direkt vom Nutzer kontrollierbar; neue Nutzer wählen die Option bei der Registrierung, bestehende Nutzer über ein Pop-up-Fenster
Benachrichtigung und Inkrafttreten
- Über eine In-App-Benachrichtigung werden Nutzer über die Aktualisierungen und die Möglichkeit zur Änderung der Einstellungen informiert
- Bestehende Nutzer können bis zum 28. September 2025 den Bedingungen zustimmen und über die Bereitstellung ihrer Daten entscheiden
- Bei Zustimmung gelten die neuen Richtlinien sofort und nur für neue oder wiederaufgenommene Unterhaltungen bzw. Coding-Sessions
- Nach dem 28. September 2025 muss die Einstellung aktiv gewählt werden, um Claude weiterhin nutzen zu können
- Änderungen der Optionen sind unter Privacy Settings möglich
Verlängerung der Datenspeicherfrist
- Wenn der Bereitstellung von Daten für das Modelltraining zugestimmt wird, verlängert sich die Speicherdauer auf 5 Jahre
- Diese verlängerte Speicherung gilt nur für neue/wiederaufgenommene Unterhaltungen und Coding-Sessions und wird für Modellverbesserung und höhere Sicherheit genutzt
- Wird eine Unterhaltung gelöscht, werden die entsprechenden Daten nicht für zukünftiges Modelltraining verwendet
- Wenn der Bereitstellung von Daten nicht zugestimmt wird, bleibt die bisherige 30-Tage-Speicherpolitik bestehen
Umgang mit Feedback-Daten
- Auch für Nutzerfeedback gilt eine Speicherdauer von 5 Jahren
Datenschutz und Datenverarbeitung
- Anthropic filtert bzw. pseudonymisiert sensible Daten mit automatisierten Tools und Prozessen, um die Privatsphäre der Nutzer zu schützen
- Nutzerdaten werden nicht an Dritte verkauft
Weitere Informationen
- Detaillierte Änderungen an den Nutzungsbedingungen für Verbraucher und der Datenschutzrichtlinie finden sich im FAQ-Bereich
1 Kommentare
Hacker-News-Kommentare
Ich frage mich, ob Nutzer künftige Trainingsdatensätze vergiften können, indem sie jedes Mal negatives Feedback hinterlassen, obwohl sie tatsächlich geholfen bekommen haben, oder indem sie Gespräche absichtlich in eine destruktive Richtung lenken und danach sehr positives Feedback geben
Mir gefällt nicht, dass es so dargestellt wird, als sei standardmäßig Opt-in aktiviert, obwohl es faktisch ein Opt-out-Verfahren ist und man mit einem Prompt in Richtung einer simplen AGB-Aktualisierung gelenkt wird; außerdem halte ich eine Datenspeicherung von 5 Jahren für übertrieben und vermute, dass es noch weitere problematische Inhalte in den neuen Bedingungen gibt; am Ende war das für mich der Auslöser, das Abo zu kündigen
Claude hilft mir bei meiner mathematischen Forschung; ich mache mir Sorgen, dass ich Claude in Gesprächen noch unveröffentlichte Forschungsideen mitteile und Claude später dieselben Ideen anderen empfiehlt, die dann glauben, es seien ihre eigenen Ideen; mir ist klar geworden, dass nicht nur geschäftliche Accounts, sondern auch Privatpersonen Privatsphäre für KI-gestützte Wissensentwicklung unbedingt brauchen
Das war zu erwarten; die großen Akteure stoßen bereits an die Grenze, mit fast allen verfügbaren Daten trainiert zu haben, einschließlich des gesamten Internets und sogar gestohlener Inhalte, die bereits Klagen ausgelöst haben; da es in den letzten Jahren keine großen Innovationen bei Modellarchitekturen gab, wird nun um mehr Trainingsdaten gekämpft; am Ende greifen sie sogar nach Nutzerdaten und setzen dabei zunehmend fragwürdige Mittel ein
Viele sind nicht überrascht, aber ich persönlich finde es ziemlich schockierend; so wie Google den Inhalt von Gmail-Nachrichten nicht in Suchergebnisse stellt, halte ich das für eine selbstschädigende Geschäftsentscheidung; vielleicht übersehe ich etwas
Ehrlich gesagt war es bisher frustrierend, dass KI aus Interaktionen mit Nutzern offenbar überhaupt nicht lernen konnte, insbesondere weil sie dieselben Fehler wiederholt hat, und ich bin eher überrascht, dass diese Änderung erst jetzt kommt
Wenn viele dagegen sind, sehe ich es eher positiv; dass LLMs aus früheren Gesprächen lernen dürfen, ist für die Modellentwicklung sehr wichtig; langfristig kann es riskant sein, wenn kollektives Wissen bei wenigen Unternehmen konzentriert wird; deshalb scheint mir am Ende nur ein Modell der „self custody“ eine echte Lösung zu sein, bei dem einzelne Organisationen oder Personen ihre Modelle selbst betreiben und trainieren; dafür müssten die Kosten natürlich noch stark sinken
Dass die Richtlinie erst jetzt geändert wird, ist für mich eher noch schlimmer; ich wollte schon immer, dass sie meine Daten fürs Training verwenden, und hätte sogar nichts dagegen, wenn sie weiter lernen; wenn man extrem auf Datenprivatsphäre fixiert ist, kann man ja einfach die eigenen Daten nicht verwenden; ich stehe eher komplett auf der Gegenseite, aber Unternehmen berücksichtigen diese Haltung überhaupt nicht; auch bei Google gibt es keine Option nach dem Motto „Bitte nutzt all meine Daten aktiv zum Training“; ich habe schon mehrmals eingegeben, wo ich wohne, und trotzdem wird es immer wieder vergessen; alles wird unter der Annahme gebaut, dass niemand seine Daten teilen will; sogar Interviews mit DeepMind im Medizinbereich beginnen immer mit Angst, Katastrophenszenarien und Zwang rund um Datenteilung; ich habe dadurch nie großen Schaden erlebt und eher von medizinischem Fortschritt profitiert; beim NHS bemühe ich mich jedes Mal, „meine Daten aktiv nutzen“ anzukreuzen; standardmäßig ist aber immer „alles ablehnen“ voreingestellt, wodurch die Auswahl umständlich wird; ich hätte gern eine einzige Master-Option: „Nutzt alle meine Daten und fragt nie wieder“
Ich hatte geglaubt, Anthropic ziele langfristig auf eine kleine, aber technisch starke Nutzerbasis; ich werde mein Abo aus Prinzip kündigen; Open-Source-Modelle reichen für meine Anforderungen noch nicht an Claude heran (Vorbereitung auf sicherheitstechnische Tests mit Fokus auf ISO/IEEE-Standards), aber ich werde eine Lösung finden
Ich frage mich, warum statt eines KI-zusammengefassten Artikels von perplexity.ai nicht direkt die eigentliche offizielle Ankündigung verlinkt wird; in der tatsächlichen Mitteilung Link stehen die wichtigen Punkte: Die Änderungen werden über ein In-App-Popup angekündigt und dort kann man auch opt-out wählen, im Einstellungsmenü kann man jederzeit opt-outen, es gilt ab dem 28. September, nur bei Zustimmung zu den neuen Bedingungen und erneuerter Sitzung, und es gilt nicht für API/externe Dienste, Claude Gov oder Claude for Education; der Original-Link wäre hilfreicher