1 Punkte von GN⁺ 2025-08-30 | 1 Kommentare | Auf WhatsApp teilen
  • Anthropic hat die Nutzungsbedingungen für Verbraucher und die Datenschutzrichtlinie aktualisiert
  • Nutzer können nun selbst wählen, ob ihre Daten zur Verbesserung des Modells verwendet werden dürfen
  • Gilt für die Pläne Claude Free, Pro und Max; bestehende Nutzer kommerzieller Services und der API sind ausgenommen
  • Wer der Datennutzung zustimmt, kann zur Verbesserung der Modellsicherheit und zu Funktionsverbesserungen künftiger Modelle, etwa beim Coding, beitragen
  • Zustimmung zur Datennutzung, Dauer und Änderungen lassen sich jederzeit in den Einstellungen verwalten

Die wichtigsten Änderungen im Überblick

  • Anthropic hat die Nutzungsbedingungen für Verbraucher und die Datenschutzrichtlinie aktualisiert, um die Leistung von Claude AI zu verbessern und den Schutz der Nutzer zu stärken
  • Nutzer können wählen, ob sie ihre Daten für die Verbesserung von Claudes Modell sowie die Verstärkung der Sicherheitsmechanismen bereitstellen möchten
  • In den Einstellungen lässt sich jederzeit anpassen, ob Daten bereitgestellt werden

Geltungsbereich und Ausnahmen

  • Dieses Update gilt nur für die Pläne Claude Free, Pro und Max sowie für Nutzer von Claude Code innerhalb dieser Pläne
  • Services unter kommerziellen Vertragsbedingungen, also Claude for Work, Claude Gov, Claude for Education und die API-Nutzung (einschließlich über Drittanbieter, z. B. Amazon Bedrock, Google Cloud Vertex AI), sind davon nicht betroffen

Auswirkungen der Zustimmung zur Datennutzung

  • Wer der Bereitstellung von Daten zustimmt, trägt sowohl zur Verbesserung der Modellsicherheit als auch zu einer höheren Genauigkeit von Systemen zur Verhinderung von Schäden und Missbrauch bei
  • Dies kann auch zur Weiterentwicklung verschiedener Fähigkeiten künftiger Claude-Modelle wie Coding, Analyse und Reasoning beitragen
  • Diese Einstellung bleibt jederzeit direkt vom Nutzer kontrollierbar; neue Nutzer wählen die Option bei der Registrierung, bestehende Nutzer über ein Pop-up-Fenster

Benachrichtigung und Inkrafttreten

  • Über eine In-App-Benachrichtigung werden Nutzer über die Aktualisierungen und die Möglichkeit zur Änderung der Einstellungen informiert
  • Bestehende Nutzer können bis zum 28. September 2025 den Bedingungen zustimmen und über die Bereitstellung ihrer Daten entscheiden
  • Bei Zustimmung gelten die neuen Richtlinien sofort und nur für neue oder wiederaufgenommene Unterhaltungen bzw. Coding-Sessions
  • Nach dem 28. September 2025 muss die Einstellung aktiv gewählt werden, um Claude weiterhin nutzen zu können
  • Änderungen der Optionen sind unter Privacy Settings möglich

Verlängerung der Datenspeicherfrist

  • Wenn der Bereitstellung von Daten für das Modelltraining zugestimmt wird, verlängert sich die Speicherdauer auf 5 Jahre
  • Diese verlängerte Speicherung gilt nur für neue/wiederaufgenommene Unterhaltungen und Coding-Sessions und wird für Modellverbesserung und höhere Sicherheit genutzt
  • Wird eine Unterhaltung gelöscht, werden die entsprechenden Daten nicht für zukünftiges Modelltraining verwendet
  • Wenn der Bereitstellung von Daten nicht zugestimmt wird, bleibt die bisherige 30-Tage-Speicherpolitik bestehen

Umgang mit Feedback-Daten

  • Auch für Nutzerfeedback gilt eine Speicherdauer von 5 Jahren

Datenschutz und Datenverarbeitung

  • Anthropic filtert bzw. pseudonymisiert sensible Daten mit automatisierten Tools und Prozessen, um die Privatsphäre der Nutzer zu schützen
  • Nutzerdaten werden nicht an Dritte verkauft

Weitere Informationen

  • Detaillierte Änderungen an den Nutzungsbedingungen für Verbraucher und der Datenschutzrichtlinie finden sich im FAQ-Bereich

1 Kommentare

 
GN⁺ 2025-08-30
Hacker-News-Kommentare
  • Ich frage mich, ob Nutzer künftige Trainingsdatensätze vergiften können, indem sie jedes Mal negatives Feedback hinterlassen, obwohl sie tatsächlich geholfen bekommen haben, oder indem sie Gespräche absichtlich in eine destruktive Richtung lenken und danach sehr positives Feedback geben

  • Mir gefällt nicht, dass es so dargestellt wird, als sei standardmäßig Opt-in aktiviert, obwohl es faktisch ein Opt-out-Verfahren ist und man mit einem Prompt in Richtung einer simplen AGB-Aktualisierung gelenkt wird; außerdem halte ich eine Datenspeicherung von 5 Jahren für übertrieben und vermute, dass es noch weitere problematische Inhalte in den neuen Bedingungen gibt; am Ende war das für mich der Auslöser, das Abo zu kündigen

    • Mir ist aufgefallen, dass in allen anderen Einstellungen von Anthropic ein Schalter blau ist, wenn er aktiv ist, und schwarz, wenn er deaktiviert ist, aber in diesem Hinweisfenster zur Änderung ist der Slider in beiden Zuständen grau; man sieht den Unterschied, wenn man direkt in die Einstellungen geht; es wirkt, als hätte das jemand absichtlich so gestaltet, was mich gleichzeitig enttäuscht und etwas bitter zurücklässt
    • Ich möchte die Formulierung „opt-in by default“ anfechten; tatsächlich ist „opt-out“ korrekt, die Opt-out-Einstellung ist der Standard
    • Es wird auf den Teil mit der „5-jährigen Speicherung“ hingewiesen; sobald etwas in ein Modell eingelernt wurde, bleibt es für immer erhalten
    • Was mir wirklich Sorgen macht, ist die 5-jährige Speicherung; wenn sie in den nächsten 5 Jahren die Bedingungen weiter ändern und die Opt-out-Option erneut präsentieren, reicht ein einziger Fehlklick, damit sie alle Daten bekommen; später könnten sie das Opt-out ganz abschaffen; sie könnten in 4 Jahren und 364 Tagen die Bedingungen ändern und die Speicherung auf 10 Jahre verlängern; bis dahin wäre Privatsphäre womöglich schon so weit ausgehöhlt, dass kaum noch jemand überhaupt merkt, dass es diese Option faktisch nicht mehr gibt
    • Als ich die App geöffnet habe, erschien zusammen mit dem Änderungshinweis ein Opt-out; in Sachen Transparenz wirkte das durchaus okay
  • Claude hilft mir bei meiner mathematischen Forschung; ich mache mir Sorgen, dass ich Claude in Gesprächen noch unveröffentlichte Forschungsideen mitteile und Claude später dieselben Ideen anderen empfiehlt, die dann glauben, es seien ihre eigenen Ideen; mir ist klar geworden, dass nicht nur geschäftliche Accounts, sondern auch Privatpersonen Privatsphäre für KI-gestützte Wissensentwicklung unbedingt brauchen

    • Es wurde gefragt, ob Claude damit am Ende nicht einfach die Arbeit anderer unterstützt; Claude kennt außerhalb des eigenen Chats nichts außer dem, was in den Trainingsdaten steckt, daher ist dieses Phänomen ein klassischer KI-Mechanismus
    • Ich betrachte KI als eine riesige Assoziationsmaschine; in der mathematischen Forschung hat es schon immer lange gedauert, zwischen „einer Idee, auf die noch niemand gekommen ist“ und „einer Idee, die bereits jemand hatte“ zu unterscheiden; inzwischen besteht viel aus wiederholten Prozessen, bei denen man über Internet, MathSciNet, ArXiv usw. Schlüsselwörter findet; bei KI habe ich mehr als 6 Monate investiert, um Prompts zu lernen, mit denen man seltene Antworten bekommt; gerade die Generalisierungsfähigkeit der KI stiftet Verwirrung; paradoxerweise wirkt etwas oft dann am originellsten, wenn eigentlich nur Punkte verbunden werden, über die schon viele nachgedacht haben; mit geeigneten Prompts kann KI Ideen auf genau diese Weise ebenfalls verknüpfen
    • Wenn man im Popup zu den neuen Bedingungen Opt-out wählt, werden meine Chats nicht zum Training verwendet
    • Wenn die Arbeit wirklich neuartig ist, ist die Wahrscheinlichkeit sehr gering, dass sie später in solchen Modellen erscheint; solche Systeme geben ihrem Wesen nach verallgemeinerte Ausgaben auf Basis von Daten aus, die viele Menschen teilen, daher muss ein Konzept in den Trainingsdaten sehr häufig sein, damit es bei der Inferenz ausgegeben wird; in der Praxis ist das eine Struktur, die sowohl Innovation als auch Privatsphäre schützt; wenn ein Konzept schon einigermaßen verbreitet ist, verdient es es auch, Teil des öffentlichen Wissens zu sein (abgesehen von IP-Fragen)
    • Es ist unklar, wie weit KI-Unternehmen menschliches Wissen nutzen werden, das sie eigentlich gar nicht besitzen; vielleicht wurde diese Grenze nie wirklich gezogen
  • Das war zu erwarten; die großen Akteure stoßen bereits an die Grenze, mit fast allen verfügbaren Daten trainiert zu haben, einschließlich des gesamten Internets und sogar gestohlener Inhalte, die bereits Klagen ausgelöst haben; da es in den letzten Jahren keine großen Innovationen bei Modellarchitekturen gab, wird nun um mehr Trainingsdaten gekämpft; am Ende greifen sie sogar nach Nutzerdaten und setzen dabei zunehmend fragwürdige Mittel ein

    • Hunderte Datenbroker wollen ebenfalls Nutzerdaten, aber KI-Unternehmen haben bereits etablierte Kanäle, über die Nutzer ihnen jeden Tag freiwillig Daten liefern; sie brauchen nur Dark Patterns bei den AGB-Änderungen und minimale PR-Kontrolle; in einer Woche wird diese Kontroverse ohnehin wieder vergessen sein
    • Ich finde es interessant, dass aktuelle KI-Modelle Qualitätsverluste erleben, weil sie selbst erzeugte Daten trainieren; wenn man Menschen- und KI-Inhalte sorgfältiger getrennt oder Verträge mit Verlagen geschlossen hätte, hätte die Lage vielleicht anders ausgesehen; aber weil alle hektisch alle Daten zusammenkratzen, verlieren am Ende alle
    • Ob es „Diebstahl“ ist, ist nicht bloß umstritten, sie haben vor Gericht selbst illegales Kopieren eingeräumt
    • Für KI-Unternehmen sind Daten eine weit mächtigere Goldgrube als für die Werbebranche; sie sind überlebensnotwendig; das eigentliche Problem sind die unethischen Praktiken, die dort entstehen werden, wo KI und Werbung zusammentreffen; es wird vermutet, dass Google oder Facebook ihre jeweiligen Datenplattformen bereits miteinander verknüpfen; ich bin zugleich gespannt und besorgt, welche Use Cases entstehen, wenn das irgendwann ganz offen erlaubt wird
    • Solche Fälle selbst zeigen, dass stärkere Regulierung und Schutzmechanismen nötig sind
  • Viele sind nicht überrascht, aber ich persönlich finde es ziemlich schockierend; so wie Google den Inhalt von Gmail-Nachrichten nicht in Suchergebnisse stellt, halte ich das für eine selbstschädigende Geschäftsentscheidung; vielleicht übersehe ich etwas

    • Gmail hat bis 2017 jahrelang E-Mails analysiert, um Werbung auszuspielen Link
    • Durch diesen Artikel Link habe ich erfahren, dass die betreffende Richtlinienänderung nicht für geschäftliche oder Bildungs-Accounts von Claude gilt und der bisherige Datenschutz dort bestehen bleibt; effektiv sind kostenlose oder nicht-kommerzielle Accounts aus Sicht von Anthropic eine weniger wichtige Gruppe, weil sie kein Geld bringen; mit dieser Entscheidung wollen sie wohl den Zustrom solcher „Gratisnutzer“ verringern; ich erwarte bald eine Ankündigung wie: „Wir haben auf euer Feedback gehört und bringen ein neues datenschutzorientiertes Produkt heraus – für nur 30 Dollar im Monat“
    • Solche Daten sind für Reinforcement Learning sehr nützlich, andere Unternehmen machen das ebenfalls, und wenn nötig kann man auch opt-outen
    • Schon der Frame, dass Überraschung die Reaktion sei, ist seltsam; alle haben genau damit gerechnet
    • Google hat E-Mails intensiv ausgewertet und für Marketing sowie zur Weitergabe an Behörden und für andere Zwecke genutzt; aber den E-Mail-Inhalt in Suchergebnisse zu stellen ist etwas anderes, als wenn Claude ihn zum Training verwendet; Google wurde dafür nicht ernsthaft bestraft
  • Ehrlich gesagt war es bisher frustrierend, dass KI aus Interaktionen mit Nutzern offenbar überhaupt nicht lernen konnte, insbesondere weil sie dieselben Fehler wiederholt hat, und ich bin eher überrascht, dass diese Änderung erst jetzt kommt

    • Echtzeitlernen findet nicht statt, und meine Daten fließen auch nicht sofort ein; Trainingsdaten werden weiterhin für Modelltraining verwendet, ein Prozess, der viele Monate dauert; die Daten von ein oder zwei Personen beeinflussen die meisten Nutzungsmuster nicht wesentlich; statt meiner speziellen Arbeitsweise wird eher das gelernt, was vielen Nutzern gemeinsam ist
    • Aus der Interaktion selbst kann man nicht besonders viel lernen, und auch die Metriken orientieren sich eher an globalen Standards als an einzelnen Nutzern, sodass der Dienst nur immer gewöhnlicher wird
    • Das ist eine Strategie, um für denselben Abo-Preis mehr Daten zu bekommen; Rabatte oder Rückerstattungen sind eher nicht zu erwarten
  • Wenn viele dagegen sind, sehe ich es eher positiv; dass LLMs aus früheren Gesprächen lernen dürfen, ist für die Modellentwicklung sehr wichtig; langfristig kann es riskant sein, wenn kollektives Wissen bei wenigen Unternehmen konzentriert wird; deshalb scheint mir am Ende nur ein Modell der „self custody“ eine echte Lösung zu sein, bei dem einzelne Organisationen oder Personen ihre Modelle selbst betreiben und trainieren; dafür müssten die Kosten natürlich noch stark sinken

    • Wenn es Gegenseitigkeit gäbe, fände ich diesen Ansatz gut; aber ich zahle jeden Monat 20 Dollar und soll Anthropic zusätzlich auch noch kostenlos Trainingsdaten liefern, das ergibt für mich keinen Sinn
    • Mir fehlt dabei der Hinweis, dass wir nicht „gemeinsam alle LLMs verbessern“, sondern faktisch Trainingsdaten für ein einzelnes LLM, nämlich Claude, liefern
    • Wenn man sensible Daten wie Quellcode von Unternehmen, Drehbücher oder Gesundheits- und Finanzdaten trainiert, steigt das Risiko
    • Ich finde es okay, wenn LLMs sich gar nicht so stark weiterentwickeln
    • Selbst wenn LLMs besser werden, ist unklar, ob die meisten Nutzer davon einen großen praktischen Vorteil haben; insgesamt könnte es sogar eher ein Verlust sein
  • Dass die Richtlinie erst jetzt geändert wird, ist für mich eher noch schlimmer; ich wollte schon immer, dass sie meine Daten fürs Training verwenden, und hätte sogar nichts dagegen, wenn sie weiter lernen; wenn man extrem auf Datenprivatsphäre fixiert ist, kann man ja einfach die eigenen Daten nicht verwenden; ich stehe eher komplett auf der Gegenseite, aber Unternehmen berücksichtigen diese Haltung überhaupt nicht; auch bei Google gibt es keine Option nach dem Motto „Bitte nutzt all meine Daten aktiv zum Training“; ich habe schon mehrmals eingegeben, wo ich wohne, und trotzdem wird es immer wieder vergessen; alles wird unter der Annahme gebaut, dass niemand seine Daten teilen will; sogar Interviews mit DeepMind im Medizinbereich beginnen immer mit Angst, Katastrophenszenarien und Zwang rund um Datenteilung; ich habe dadurch nie großen Schaden erlebt und eher von medizinischem Fortschritt profitiert; beim NHS bemühe ich mich jedes Mal, „meine Daten aktiv nutzen“ anzukreuzen; standardmäßig ist aber immer „alles ablehnen“ voreingestellt, wodurch die Auswahl umständlich wird; ich hätte gern eine einzige Master-Option: „Nutzt alle meine Daten und fragt nie wieder“

    • Um sich mit dieser Haltung eher identifizieren zu können, müsste man glauben, dass Unternehmen den Nutzern immer noch dienen; tatsächlich werden meine Informationen aber viel häufiger gegen meine Interessen eingesetzt, etwa für das gezielte Bewerben betrügerischer Produkte; auch KI-Unternehmen stehen meist unter dem Einfluss von VC und entwickeln Produkte eher gewinnorientiert als nutzerorientiert; gerade befinden wir uns in der „MoviePass“-Phase, in der Nutzer großzügig belohnt werden, um Marktanteile zu sichern, aber später wird die Servicequalität sinken und das Missbrauchspotenzial steigen MoviePass Wikipedia
    • Es fällt mir schwer zu verstehen, wie man so eine Meinung ohne kritisches Denken ernsthaft vertreten kann
    • Wie wichtig medizinische Daten als Privatsphäre-Asset sind, merkt man schnell, wenn man in einem Land mit privater Krankenversicherung lebt
    • Ich frage mich, ob das Trolling ist oder ob du in einer idealisierten Welt lebst, in der Unternehmen die Nutzer an erste Stelle setzen
    • In meinem Leben gibt es ganz klar Werte, die wichtiger sind als „LLMs sollen ein kleines bisschen besser werden“
  • Ich hatte geglaubt, Anthropic ziele langfristig auf eine kleine, aber technisch starke Nutzerbasis; ich werde mein Abo aus Prinzip kündigen; Open-Source-Modelle reichen für meine Anforderungen noch nicht an Claude heran (Vorbereitung auf sicherheitstechnische Tests mit Fokus auf ISO/IEEE-Standards), aber ich werde eine Lösung finden

    • Letztlich können Nutzer nur den Dienst kündigen; auf Gesetze oder Regulierung kann man kaum hoffen, und selbst wenn sie kommen, lassen sie sich wahrscheinlich mit Geldzahlungen entschärfen; sobald man Daten an einen Webdienst oder eine App gegeben hat, sollte man davon ausgehen, dass diese Daten nicht mehr ausschließlich einem selbst gehören
  • Ich frage mich, warum statt eines KI-zusammengefassten Artikels von perplexity.ai nicht direkt die eigentliche offizielle Ankündigung verlinkt wird; in der tatsächlichen Mitteilung Link stehen die wichtigen Punkte: Die Änderungen werden über ein In-App-Popup angekündigt und dort kann man auch opt-out wählen, im Einstellungsmenü kann man jederzeit opt-outen, es gilt ab dem 28. September, nur bei Zustimmung zu den neuen Bedingungen und erneuerter Sitzung, und es gilt nicht für API/externe Dienste, Claude Gov oder Claude for Education; der Original-Link wäre hilfreicher

    • Wenn Opt-out möglich ist, ist es mir nicht besonders wichtig; ich frage mich allerdings, ob Drittanbieter-Apps mit Claude-API-Integration wie JetBrains AI oder Zed stellvertretend für die Nutzer über Opt-in entscheiden; bei API-basierten Fällen darf so eine Trainingsoption auf keinen Fall standardmäßig Opt-in sein, und ich finde, die gesamte Branche sollte diesem Prinzip folgen
    • Das App-Popup, das ich bekommen habe, enthielt nur Buttons und Bilder, aber keinen Text; ich dachte erst an ein Dark-Mode-Problem und habe sogar das DOM geprüft, konnte aber keinen Text finden; ich habe es ignoriert, weil ich dachte, es sei nur eine Ankündigung einer neuen Funktion; hätte ich die kürzlich geänderte Richtlinie nicht zufällig auf Reddit gesehen, wüsste ich bis heute nichts davon; vermutlich haben außer mir noch viele andere Nutzer das übersehen
    • Ich räume ein, dass mein früherer Kommentar im Kontext nicht gepasst hat, und habe ihn korrigiert; ursprünglich war der Link auf eine Zusammenfassung mehrerer Artikel von perplexity.ai gerichtet, doch zufällig hat ein Moderator ihn durch die Originalankündigung ersetzt; viele Kommentare entstanden daraus, dass Leute nur die KI-Zusammenfassung überflogen und vorschnell geurteilt haben; insofern ist es eher gut, dass auf das Original umgestellt wurde
    • Ich finde es viel besser, direkt auf die Originalquelle zu verlinken statt auf mehrere Artikelzusammenfassungen