Atlassian stellt die standardmäßige Nutzung von Kundendaten für das Training von KI um
(letsdatascience.com)- Kundenmetadaten und In-App-Inhalte aus Atlassian-Cloud-Produkten wie Jira und Confluence sollen ab dem 17. August 2026 standardmäßig für das Training von Rovo und Rovo Dev genutzt werden
- Je nach Tarif gelten unterschiedliche Standardeinstellungen: Bei Free, Standard und Premium ist der Metadatenbeitrag immer aktiviert, nur Enterprise behält standardmäßig deaktivierte Metadaten- und In-App-Daten sowie die Kontrolle darüber
- Zu den erfassten Daten zählen Metadaten wie Lesbarkeits-Scores, Story Points und SLA-Werte sowie In-App-Daten wie Seiteninhalte, Issue-Beschreibungen, Kommentare und Workflow-Namen
- Schutzmaßnahmen wie das Entfernen direkter Identifikatoren und Aggregation werden angewendet, die beigesteuerten Daten werden jedoch bis zu 7 Jahre gespeichert; nach Löschung oder Opt-out werden In-App-Daten innerhalb von 30 Tagen entfernt und trainierte Modelle innerhalb von 90 Tagen neu trainiert
- Mit diesem Politikwechsel weg von der bisherigen Nichtnutzung verändert sich die Datenherkunft in Arbeitstools sowie das Maß an Kontrolle je nach Preisstufe, mit größeren Auswirkungen auf Privacy-, Governance- und Compliance-Bewertungen
Überblick über die Änderungen
- Atlassian plant, ab dem 17. August 2026 Kundenmetadaten und In-App-Inhalte aus Jira, Confluence und anderen Atlassian-Cloud-Produkten standardmäßig für KI-Training zu nutzen
- Als betroffene KI-Funktionen werden Rovo und Rovo Dev genannt
- Betroffen sind rund 300.000 Kunden
- Durch die Änderung der Richtlinie zur Datenbeisteuerung gelten je nach Tarif unterschiedliche Standards
- In niedrigeren Tarifen ist ein Opt-out bei der Metadatenerfassung nicht möglich
- Im Enterprise-Tarif bleibt die Kontrolle über die Erfassung von Metadaten und In-App-Daten erhalten
- Die Speicherdauer beigesteuerter Daten beträgt bis zu 7 Jahre
- Nach Löschung oder Opt-out werden In-App-Daten innerhalb von 30 Tagen entfernt
- Mit diesen Daten trainierte Modelle werden innerhalb von 90 Tagen neu trainiert, um den Beitrag zu entfernen
Technische Details
- Atlassian unterteilt die Erfassung in zwei Kategorien: Metadaten und In-App-Daten
- Metadaten enthalten de-identifizierte Signale
- In-App-Daten umfassen nutzergenerierte Inhalte
- Konkret genannte Elemente in der Kategorie Metadaten
- Lesbarkeits- und Komplexitätsscores
- Aufgabenklassifizierung
- Metriken zur semantischen Ähnlichkeit
- Story Points
- Sprint-Enddaten
- SLA-Werte in Jira Service Management
- Konkret genannte Elemente in der Kategorie In-App-Daten
- Seitentitel und -inhalt in Confluence
- Titel, Beschreibungen und Kommentare von Jira-Issues
- Namen benutzerdefinierter Emojis
- Namen benutzerdefinierter Status
- Workflow-Namen
- Als Vorverarbeitung vor dem Training werden das Entfernen direkter Identifikatoren, Datenaggregation und weitere Schutzmaßnahmen genannt
Standardeinstellungen nach Tarif und ausgenommene Gruppen
- Die Standardeinstellung richtet sich nach dem höchsten aktiven Tarif einer Organisation
- Free- und Standard-Kunden
-
Metadatenbeitrag immer aktiviert
- Kein Opt-out für die Metadatenerfassung
- Der Beitrag von In-App-Daten ist standardmäßig aktiviert, die Einstellung kann aber geändert werden
- Premium-Kunden
- Metadatenbeitrag immer aktiviert
- Der Beitrag von In-App-Daten ist standardmäßig deaktiviert
- Enterprise-Kunden
- Metadaten und In-App-Daten sind beide standardmäßig deaktiviert
- Opt-out für Metadaten möglich
- Genannt werden außerdem Kundengruppen, die vollständig von der Erfassung ausgenommen sind
- Kunden mit customer-managed encryption keys
- Kunden von Atlassian Government Cloud
- Kunden von Atlassian Isolated Cloud
- Kunden mit HIPAA-Verpflichtungen
-
Kontext und Bedeutung
- Diese Richtlinie markiert einen Kurswechsel gegenüber der bisherigen Haltung
- Zuvor hatte Atlassian erklärt, Kundendaten nicht für das Training oder die Verbesserung von KI-Diensten zu verwenden
- Als Hintergrund wird ein Branchentrend genannt
- SaaS-Anbieter sammeln interne Nutzungssignale und Inhalte, um Modelle zu bootstrappen, feinzujustieren und zu evaluieren
- Gleichzeitig werden Zusagen zu de-identifizierter und aggregierter Analyse gemacht
- Von Atlassian genannte praktische Vorteile
- bessere Suchrelevanz
- bessere Zusammenfassungen
- Vorlagenvorschläge
- Optimierung agentischer Workflows
- Auswirkungen aus Sicht der Praxis
- Veränderung der Datenherkunft der in Arbeitstools verwendeten Modelle
- Veränderung des Datenkontrollniveaus je nach Preisstufe sowie der Maßstäbe für Compliance- und Beschaffungsentscheidungen
Risiken und Trade-offs
- Die verpflichtende Metadatenerfassung für Nicht-Enterprise-Kunden löst unabhängig von der Entfernung von Identifikatoren Bedenken bei Privacy und Governance aus
- Telemetrie wie Story Points und SLA-Metriken kann Projektstrukturen und Leistungsmuster offenlegen
- Die 7-jährige Speicherung de-identifizierter Daten vergrößert mit der Zeit die Angriffsfläche
- Für Kunden, die Audits zur langfristigen Datenspeicherung benötigen, entsteht zusätzlicher Aufwand
- Es gibt Ausnahmepfade für Kunden mit hohen Sicherheitsanforderungen und für Nutzer von customer-managed keys
- Allerdings kann dafür ein Wechsel auf teurere Tarife oder spezielle Bereitstellungsformen nötig sein
Worauf zu achten ist
- Organisationen sollten ihre Atlassian-Tenants prüfen
- Der höchste aktive Tarif pro Tenant sollte überprüft werden
- Die standardmäßigen Einstellungen zur Datenbeisteuerung sollten ermittelt werden
- Während des Rollouts sind Aktualisierungen der Administrationskonfiguration nötig
- Wenn ein vollständiges Opt-out erforderlich ist, sollte ein Wechsel zu Enterprise oder zu isolierten Bereitstellungen geprüft werden
- Beobachtungspunkte auf Produktseite
- Es sollte geprüft werden, wie Atlassian das Verfahren des 90-tägigen Neutrainings praktisch umsetzt
- Es sollte geprüft werden, ob nachgelagerte LLM-Anbieter, die in Rovo verwendet werden, behaupten, Eingaben nicht zu speichern
- Falls sich dieses Muster in Enterprise-SaaS insgesamt ausbreitet, werden mögliche Kundenreaktionen und regulatorische Beobachtung erwähnt
Grundlage der Bewertung
- Diese Änderung hat praktische Auswirkungen auf Tausende Enterprise-Nutzer und auf Fachleute, die Daten-Governance und Modellherkunft verwalten
- Sie wird nicht als Durchbruch bei Spitzenmodellen oder als regulatorischer Meilenstein eingeordnet
- Bewertet wird sie als Änderung der Produktpolitik, die die Datenpipelines von Teams und ihre Compliance-Optionen praktisch verändert
1 Kommentare
Hacker-News-Kommentare
Ich habe bei Atlassian das Gefühl, dass dort eine Panne nach der anderen passiert. Ich nutze die Produkte immer noch häufig, aber ich stoße viel zu oft auf Bugs der Kategorie P0. Besonders die self-hosted Bitbucket workers sind, vor allem auf der Docker-Seite, so veraltet, dass wir jede Menge Workarounds einbauen mussten. In JIRA muss man seit Jahren neu laden, um die Reihenfolge neuer Tickets zu ändern. Auch neue Funktionen, die in den letzten Jahren zu JIRA und Bitbucket hinzugekommen sind, liefen oft nicht richtig. Ich habe die AI-Funktionen im kostenlosen Test ausprobiert, aber sie haben überhaupt nicht funktioniert, und kündigen konnte man auch nicht online, sodass ich mehrere Support-Tickets schreiben musste; dabei ist sogar das Support-Formular mehrfach kaputtgegangen. Ich frage mich, ob diese massiven Funktionsstörungen auf technische Schulden, den Abgang von Fachkräften oder auf beides zurückgehen. In der Community sieht man Hunderte bis Tausende Bugs mit irgendwelchen Behelfslösungen
Ich hätte gern eine bessere Quelle verlinkt, aber der Kern ist aus meiner Sicht, dass derzeit sowohl kostenlose als auch zahlende Kunden standardmäßig für die AI-Nutzung zu Trainingszwecken ihrer Daten opt-in sind. Betroffen sind sämtliche Inhalte wie Confluence-Seiten und Jira-Tickets. In der Atlassian-Support-Dokumentation steht zwar, wie man es deaktiviert, aber in unseren Instanzen ist diese Einstellung überhaupt nicht sichtbar
Ich habe ein Gerücht gesehen, dass Anthropic über eine Übernahme von Atlassian spricht und dass es dabei vermutlich um die Trainingsdaten geht. Es gibt sogar einen Reddit-Post über angebliche Aktivitäten rund um Data Poisoning
Ich habe das Gefühl, dass sich bei Enterprise SaaS immer mehr das Muster normalisiert, standardmäßig zu sammeln statt standardmäßig abzulehnen. Hier ist es aber besonders gravierend, weil nicht nur Metadaten, sondern sämtliche Inhalte in der App betroffen sind und weil die Opt-out-Einstellung offenbar nicht einmal gerendert wird. Über die politische Entscheidung selbst kann man streiten, aber beides zusammen wirkt, als wäre Reibung absichtlich eingebaut worden. Außerdem sollte man data residency getrennt betrachten: Viele Käufer halten regionale Bindung für eine umfassende Datenschutzgarantie, dabei bedeutet sie in Wirklichkeit nur, wo etwas gespeichert wird — nicht, wer aus welchem Zweck darauf zugreifen kann
Ich denke, viele andere Unternehmen wie GitHub, Figma, Adobe und Vercel aktivieren so etwas ebenfalls standardmäßig. Realistisch ist daher wohl, grundsätzlich davon auszugehen, dass jedes Unternehmen anvertraute Daten auch für Modelltraining verwenden könnte
Falls die Übernahme durch Anthropic stimmt, dürfte Atlassian als Gelegenheit erscheinen, sich einen kompletten hochwertigen Datensatz rund um Business-Arbeit zu kaufen
Ich frage mich, ob Atlassian auch Code und Inhalte aus privaten Bitbucket-Repositories als erfassungsrelevant betrachtet. Die Formulierungen in Richtlinie und FAQ sind so vage, dass ich einfach eine klare Ja-oder-Nein-Antwort hören möchte
Früher hieß es: Wenn man nicht zahlt, ist man das Produkt. Heute wirkt es eher so, als würden Unternehmen sogar noch zahlen und dabei selbst zum Produkt werden, was die Sache noch absurder macht
Ich möchte unbedingt darauf hinweisen, dass Atlassians data residency-Option dieses Problem nicht löst. Selbst wenn Daten an eine bestimmte Region gebunden sind, können sie weiterhin für Trainingszwecke genutzt werden
Deshalb wirkt es für mich jetzt noch klarer, warum Atlassian den Support für Data Center on-prem zurückfahren wollte