- Wenn Sie den Dienst Claude von Anthropic nutzen, werden Ihre Daten künftig für das AI-Training verwendet.
- Die Eingabedaten der Nutzer sollen künftig für das Modelltraining zur Weiterentwicklung von AI-Systemen genutzt werden.
- Frühere Daten sind ausgenommen; betroffen sind nur neue Daten, die ab jetzt eingegeben werden.
- Gelöschte oder als privat markierte Daten werden nicht für das Training verwendet.
- Nutzer können in den Einstellungen die Opt-out-Option für das Training wählen.
Änderung der Richtlinie zur Datenerfassung und zum AI-Training bei Claude
- Nutzer eines Claude-Kontos von Anthropic sollten sich ab sofort darüber im Klaren sein, dass alle Daten, die sie in den Dienst eingeben, für das AI-Training verwendet werden.
- Diese Richtlinie gilt für künftig eingegebene neue Daten; zuvor bereitgestellte Daten sind nicht betroffen.
- Vom Nutzer gelöschte Daten und als privat markierte Daten werden aufgrund einer gesonderten Verarbeitung nicht in den AI-Trainingsdatensatz aufgenommen.
- Anthropic weist in seinen Service-Hinweisen darauf hin, dass Nutzer die Verwendung ihrer Daten für das Training bei Wunsch über das Einstellungsmenü (Opt-out) ablehnen können.
- Es scheint eine ausgewogene Richtlinie zwischen der Weiterentwicklung von AI-Diensten und dem Schutz von Nutzerdaten angewendet zu werden.
1 Kommentare
Hacker-News-Kommentare
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z