1 Punkte von GN⁺ 2025-08-30 | 1 Kommentare | Auf WhatsApp teilen
  • Wenn Sie den Dienst Claude von Anthropic nutzen, werden Ihre Daten künftig für das AI-Training verwendet.
  • Die Eingabedaten der Nutzer sollen künftig für das Modelltraining zur Weiterentwicklung von AI-Systemen genutzt werden.
  • Frühere Daten sind ausgenommen; betroffen sind nur neue Daten, die ab jetzt eingegeben werden.
  • Gelöschte oder als privat markierte Daten werden nicht für das Training verwendet.
  • Nutzer können in den Einstellungen die Opt-out-Option für das Training wählen.

Änderung der Richtlinie zur Datenerfassung und zum AI-Training bei Claude

  • Nutzer eines Claude-Kontos von Anthropic sollten sich ab sofort darüber im Klaren sein, dass alle Daten, die sie in den Dienst eingeben, für das AI-Training verwendet werden.
  • Diese Richtlinie gilt für künftig eingegebene neue Daten; zuvor bereitgestellte Daten sind nicht betroffen.
  • Vom Nutzer gelöschte Daten und als privat markierte Daten werden aufgrund einer gesonderten Verarbeitung nicht in den AI-Trainingsdatensatz aufgenommen.
  • Anthropic weist in seinen Service-Hinweisen darauf hin, dass Nutzer die Verwendung ihrer Daten für das Training bei Wunsch über das Einstellungsmenü (Opt-out) ablehnen können.
  • Es scheint eine ausgewogene Richtlinie zwischen der Weiterentwicklung von AI-Diensten und dem Schutz von Nutzerdaten angewendet zu werden.

1 Kommentare

 
GN⁺ 2025-08-30
Hacker-News-Kommentare
  • Ehrlich gesagt haben diese Unternehmen bereits Daten im Terabyte-Bereich gestohlen und legen ihre Datensätze auch nicht offen, also muss ich davon ausgehen, dass sie alles sammeln und fürs Training verwenden, egal was ich in den Dienst eingebe
    • Ist das Lesen von frei im Internet veröffentlichten Texten jetzt Diebstahl? Ich halte das für eine übermäßig harte Auslegung von Eigentumsrechten
    • Man muss nicht gleich vom Schlimmsten ausgehen; man sollte nicht annehmen, dass alle mit böser Absicht handeln, und wir sollten auch aufpassen, dass so eine Denkweise nicht normal wird
    • Ich denke, die obige Meinung ist die vernünftigste Interpretation
  • Ich bin eigentlich immer davon ausgegangen, dass ohnehin alle Daten bereits fürs AI-Training genutzt werden, frage mich nur, ob das nur bei mir so war
    • Die größte Herausforderung der Informatik im Jahr 2025 wird wohl sein, Menschen davon zu überzeugen: „Wir trainieren AI nicht mit all euren persönlichen Daten.“ Ehrlich gesagt glaube ich fast, Anthropic hat vielleicht einfach beschlossen, es doch zu tun, weil ohnehin niemand glaubt, dass ihre Daten nicht verwendet werden. Es könnte das Vertrauen sogar eher erhöhen, wenn man den Leuten Optionen gibt, die sie selbst kontrollieren können
    • Ich kann diese Denkweise nicht wirklich nachvollziehen; ich verstehe nicht, warum man das automatisch voraussetzt. Als ich Claude zum ersten Mal benutzt habe, brauchte ich nur ein paar Minuten, um die Datenschutzeinstellungen zu prüfen. Das mache ich immer, wenn ich einen neuen Dienst nutze. Wenn man zynisch einfach annimmt, dass ohnehin alles geteilt wird, schaut man am Ende gar nichts mehr nach. Es steht direkt unter Einstellungen -> Datenschutz
    • Das ist dieselbe Naivität wie bei Menschen, die glauben, dass Dokumente auf Servern von Google/META/Apple/Microsoft wirklich verschwinden, wenn man sie löscht. Google hat vermutlich Sicherungskopien aller Informationen, die es in den letzten 20 Jahren indexiert hat, in einem Umfang, auf den selbst das Internet Archive neidisch wäre
    • Bei kostenlosen Konten bin ich ohnehin davon ausgegangen, dass sie fürs AI-Training verwendet werden. Daten, die ich nicht behalten möchte, lösche ich einfach aus dem Dienst. Aber dass selbst bezahlte Konten eingeschlossen sind und die Daten fünf Jahre lang aufbewahrt werden, verstehe ich nicht
    • Natürlich gibt es noch Menschen, die an den Grundwert glauben, dass gesellschaftliche Zusagen gelten. Aber wenn man sieht, wie diese Zusagen immer dann verbogen oder ignoriert werden, wenn sie unbequem werden, überrascht es nicht, dass zynische Sichtweisen verbreitet sind. Die Frage ist, wie sich diese Sicht auf reale Entscheidungen auswirkt. Am Ende wird immer mehr von früher öffentlichen Dingen privat. Deshalb probiere ich lokale Versionen aus und versuche, Dinge zu bauen, die ich besser kontrollieren kann
  • Am Ende wird wahrscheinlich irgendwann herauskommen, dass mit den Daten aller trainiert wurde, ganz egal, wer ein opt-out gesetzt hat. Ich möchte Claude weiter nutzen, aber ich will nicht, dass alle Lösungen, die ich entwickelt habe, wie öffentliches Wissen verbreitet werden
    • Es gibt die Frage, wann denn je ein Unternehmen eine opt-out-Anfrage ignoriert habe; das klingt so, als wäre da noch etwas offen
    • Ich habe kein Problem damit, wenn ein Unternehmen bzw. eine AI durch meine Eingaben besser wird; ich möchte nur nicht, dass das direkt mit meinem Namen oder meinen Informationen verknüpft ist. Idealerweise sollte die Chatham-House-Regel gelten (Chatham House Rule: Inhalte eines Gesprächs dürfen geteilt werden, die Identität der Sprecher bleibt anonym)
    • Ich frage mich, warum man seine eigenen Einsichten nicht teilen möchte. Ich finde direkte Formen des Teilens besser, als wenn Daten über AI-Training nach außen sickern. Deine Formulierung wirkt allerdings etwas entschiedener
  • Offenbar gehen die Trainingsdaten am Ende aus. Ich frage mich, wie stark man sich noch auf Daten stützen kann und welches „Wissen“ sich daraus überhaupt ziehen lässt. Ich gebe fast nie Feedback und bekomme meistens (in 5 von 6 Fällen) falsche Ergebnisse. Trotzdem weiß ich nicht, wie man beurteilen soll, ob diese Resultate wertvoll sind
    • Sie könnten eine Methode wie Google verwenden: Wenn ein Nutzer auf einen bestimmten Link klickt und danach nicht weiter sucht, wird das als hilfreiches Ergebnis gewertet. Mein Schweigen könnte ebenfalls als schwaches Signal interpretiert werden, dass ich zufrieden war (natürlich abhängig vom Nutzungsverhalten)
    • Letztlich weiß man nicht, ob das, womit trainiert wird, überhaupt echten Wert hat. Wenn ich eine falsche Antwort bekomme und mich nicht beschwere, wird das Unternehmen sich wohl kaum darum kümmern
  • Mir fällt auf, dass das kurz nach der Veröffentlichung des AI Safety Index kommt. In dem Bericht wurde Anthropic dafür gelobt, keine Nutzerdaten fürs Training zu verwenden, deshalb wollte ich dem Unternehmen mehr vertrauen und es nutzen
    https://futureoflife.org/ai-safety-index-summer-2025/
  • Moderne AI basiert auf Daten. Dem Versprechen zu glauben, dass unsere Gespräche nicht fürs Training verwendet werden, ist so, als würde man einem Vielfraß sein Lieblingsessen geben und ihn versprechen lassen, es auf keinen Fall zu essen. Nun ja, solange die Gespräche nicht vollständig nach außen durchsickern, ist das für mich in Ordnung; ich nutze solche Dienste ohnehin schon unter diesen Bedingungen
    • Wir dürfen so etwas nicht normalisieren. Vertragliche Pflichten müssen durchgesetzt werden, und unsere Privatsphäre sowie unsere Menschenrechte müssen geschützt werden
  • In der iOS-App erscheint direkt nach dem Login ein opt-out-Popup. Es war etwas lästig, aber die Umsetzung war in Ordnung
    • Ich gehöre zu denen, die möchten, dass ein LLM wie Claude durch meine Gespräche oder mein Feedback klüger wird. Dass es kein eingebautes langfristiges Gedächtnis pro Nutzer und keine Gesprächshistorie gibt, finde ich extrem frustrierend. Ich bitte Anthropic seit sechs Monaten um eine opt-in-Funktion. Natürlich verstehe ich auch die Datenschutzprobleme. Aber in meinem Fachgebiet (Kognitionsforschung, Genetik, Neurophilosophie) sollte Claude klüger werden, und ich würde mein Wissen gern teilen, um einen wirklich guten Denkpartner zu bekommen
  • Kaum zu glauben: Aus Datenschutzsicht ist das ein ethisches Problem auf dem Niveau von Metas berüchtigten Entscheidungen. Ein wirklich miserabler Rollout. Dieses modal (Einstellungsfenster) erschien einfach direkt in einem bestehenden Chatfenster. Ich habe nie zugestimmt, dass meine Daten, Ideen, mein Gehalt oder meine Familienanamnese dafür verwendet werden, und ich fürchte, PR wird dann sagen: „Aber Sie haben im modal doch opt-in gewählt, oder?“
    https://imgur.com/afqMi0Z
  • Ich weiß nicht, mit welchen Daten sie trainiert haben, aber ich habe Claude jetzt zum zweiten Mal gekündigt. Die UI-Bugs in der Weboberfläche und das ständige Flackern nerven, und die AI-Antworten sind in letzter Zeit übertrieben negativ und herablassend geworden. So etwas hatte ich früher oder bei anderen LLMs nicht. Wahrscheinlich hat man nach der Kritik, das Modell würde zu sehr schmeicheln, nachjustiert und ist dabei gescheitert. Jetzt mutmaßt es über mein Verhalten und kritisiert mich über den technischen Kontext hinaus. Wenn ich Gemini benutze, nimmt es zwar auch immer an, dass ich über die Antwort verärgert bin, aber wenigstens ist es nicht unhöflich. Deshalb bin ich wieder zu chatgpt zurückgekehrt und vergleiche weiter
    • Power-User brauchen einstellbare Regler wie bei einer API (Schmeichelei/Sicherheit/Kinderschutzmodus aus usw.). Idealerweise sogar mit einem Entsperrschalter wie bei einer Mikrowelle
  • Einen ähnlichen Beitrag gibt es hier
    • Dieser Beitrag ist zumindest insofern sinnvoll, als er den eigentlichen Wortlaut der von Anthropic verschickten Mitteilung enthält. Die von Perplexity gelieferte Zusammenfassung könnte für Nichtfachleute angenehmer zu lesen sein