1 Punkte von GN⁺ 29 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Copilot ist ein KI-basierter interaktiver Dienst, der Antworten auf die Prompts der Nutzer erzeugt, doch die Ergebnisse sind möglicherweise nicht korrekt oder zuverlässig
  • Microsoft stellt Copilot nur zu Unterhaltungszwecken (Entertainment purposes only) bereit und er sollte nicht als Grundlage für wichtige Ratschläge oder Entscheidungen verwendet werden
  • Nutzer sind selbst dafür verantwortlich, die Informationen von Copilot zu überprüfen, und können fehlerhafte Antworten oder unangemessene Inhalte melden
  • Microsoft übernimmt keinerlei Gewähr für Leistung, Ergebnisse oder die Nichtverletzung von Rechten durch Copilot und schließt die Haftung für Verluste aus, die aus der Nutzung entstehen
  • Copilot darf nur für persönliche Zwecke verwendet werden; illegale Handlungen, Rechtsverletzungen und die Erzeugung unangemessener Inhalte sind untersagt

Geltungsbereich

  • Diese Bedingungen gelten für die Nutzung von Copilot insgesamt, einschließlich eigenständiger Apps auf Computern und Mobilgeräten, copilot.microsoft.com und zugehöriger Domains, Copilot-Unterhaltungen über Microsoft-Apps und -Websites, über Plattformen Dritter sowie sonstiger unter der Marke Copilot angebotener Dienste
  • Ausgenommen sind jedoch Apps oder Dienste von Microsoft 365 Copilot, sofern nicht ausdrücklich angegeben ist, dass diese Bedingungen dort gelten

Definitionen

  • Prompt“ bezeichnet Inhalte wie Text, Audio, Bilder, Dateien, Sprache oder Videos, die an Copilot gesendet oder mit Copilot geteilt werden
  • Response“ bezeichnet Inhalte, die Copilot dem Nutzer bereitstellt; dazu können auch von Copilot erzeugte Creations gehören
  • Your Content“ bezeichnet in Unterhaltungen mit Copilot erzeugte Prompts und Responses, ausgenommen Inhalte, die Microsoft gesondert gehören
  • Actions“ bezeichnet eine Reihe von Aufgaben, die Copilot auf Anfrage des Nutzers automatisch ausführt
  • Copilot gilt als „Service“ im Sinne des Microsoft Services Agreement

Nutzungsberechtigung

  • Nutzer müssen je nach den Gesetzen des jeweiligen Landes mindestens 13 Jahre alt sein, in einigen Regionen mindestens 18 Jahre
  • Bei Nutzern unter 18 Jahren oder bei Nutzung ohne Anmeldung können einige Funktionen eingeschränkt sein
  • Bei der Registrierung müssen Geburtsdatum und Land korrekt angegeben werden; der Zugriff mithilfe automatisierter Werkzeuge wie Bots oder Scraper ist untersagt
  • Copilot darf nur für persönliche Zwecke verwendet werden

Nutzung von Copilot

  • Copilot ist ein KI-basierter interaktiver Dienst, der Responses auf die Prompts der Nutzer erzeugt
  • Die Antworten können Fehler enthalten und Informationen aus ungenauen oder unzuverlässigen Quellen umfassen
  • Copilot kann Informationen aus dem Internet beziehen, doch Microsoft hat keine Kontrolle über diese Inhalte
  • Nutzer müssen Informationen von Copilot unbedingt überprüfen, bevor sie sie als Entscheidungsgrundlage verwenden, und können falsche Informationen oder unangemessene Antworten über Melde- oder Feedback-Funktionen mitteilen
  • Antworten von Copilot sind möglicherweise nicht einzigartig; identische oder ähnliche Antworten können auch anderen Nutzern bereitgestellt werden
  • Nutzer müssen die Bedingungen und den Verhaltenskodex (Code of Conduct) einhalten und dürfen Copilot nicht auf rechtswidrige Weise oder unter Verletzung der Rechte anderer verwenden

Verhaltenskodex (Code of Conduct)

  • Verbot, sich selbst oder anderen Schaden zuzufügen: Belästigung, Bedrohung, Missbrauch, Ausbeutung usw. sind untersagt
  • Verbot der Störung der Dienstbereitstellung: Bots, Scraper, technische Angriffe, exzessive Nutzung, Prompt-Manipulation, „jailbreaking“ usw. sind untersagt
  • Verbot der Verletzung der Privatsphäre anderer: Weitergabe personenbezogener Daten, Ableitung sensibler Informationen, Gesichtserkennung, Verarbeitung biometrischer Daten usw. sind untersagt
  • Verbot täuschender Handlungen: Falschinformationen, Betrug, Identitätsvortäuschung und die Erzeugung irreführender Inhalte sind untersagt
  • Verbot der Verletzung der Rechte anderer: Verletzungen von geistigem Eigentum, Persönlichkeitsrechten usw. sind untersagt
  • Verbot der Erzeugung unangemessener Inhalte: Pornografische Inhalte, Gewalt, Hass, Terrorismus, Verherrlichung von Suizid, Ausbeutung von Kindern, „Deepfakes“ usw. sind untersagt
  • Verbot rechtswidriger Handlungen: Gesetzesverstöße oder die Förderung solcher Verstöße sind untersagt
  • Bei Verstößen kann Microsoft Prompts oder Inhalte blockieren, einschränken oder löschen

Entscheidungen im Zusammenhang mit Copilot

  • Microsoft kann jederzeit die Bereitstellung von Copilot oder einzelner Funktionen einstellen oder einschränken
  • Soweit gesetzlich zulässig, kann Microsoft den Zugang eines Nutzers zu Copilot ohne vorherige Ankündigung einschränken, aussetzen oder dauerhaft beenden
  • Gründe hierfür können Verstöße gegen die Bedingungen, rechtswidrige Aktivitäten oder die Sperrung eines Kontos sein; Nutzer können über das Formular Report a Concern eine Überprüfung beantragen

Shopping-Funktionen

  • In einigen Regionen ist es möglich, über Copilot Produkte zu entdecken und zu kaufen
  • Der Verkauf und die Lieferung erfolgen durch einen Drittanbieter-Merchant; Microsoft wickelt die Zahlung nicht ab
  • Beim Kauf gelten die Nutzungsbedingungen, Rückerstattungsrichtlinien und Datenschutzbestimmungen des Merchant; Streitigkeiten sind direkt mit dem Merchant oder dem Zahlungsdienstleister zu klären
  • Microsoft erhebt, nutzt und teilt personenbezogene Daten und Zahlungsinformationen gemäß dem Microsoft Privacy Statement

Wichtige Hinweise und Warnungen

  • Copilot kann Werbung enthalten
  • Daten können automatisch und manuell (durch Menschen) verarbeitet werden; Informationen, die nicht überprüft werden sollen, sollten nicht geteilt werden
  • Copilot und Funktionen von Copilot Labs sind experimentell und können unerwartet funktionieren
  • Microsoft übernimmt keine Gewähr für die Leistung oder die Ergebnisse von Copilot
  • Für die Ergebnisse von durch Copilot ausgeführten Actions ist der Nutzer verantwortlich
  • Copilot wird nur zu Unterhaltungszwecken (Entertainment purposes only) bereitgestellt, kann Fehler enthalten und sollte nicht für wichtige Ratschläge herangezogen werden
  • Microsoft garantiert nicht, dass die Antworten von Copilot keine Rechte Dritter verletzen oder nicht verleumderisch sind
  • Nutzer müssen Microsoft von sämtlichen Ansprüchen, Verlusten und Kosten freistellen, die durch die Nutzung, Weitergabe oder Veröffentlichung von Copilot-Inhalten entstehen
  • Nutzer können die Verwendung von Copilot jederzeit einstellen; für die Kündigung eines Microsoft-Kontos gilt das Microsoft Services Agreement

Eigentum an Inhalten

  • Microsoft besitzt die Inhalte der Nutzer nicht, kann sie jedoch zu Betriebs- und Verbesserungszwecken verwenden
  • Nutzer gewähren Microsoft das Recht zur Nutzung ihrer Inhalte; Microsoft darf diese vervielfältigen, verbreiten, ändern, übersetzen und neu formatieren und kann Dritten dieselben Rechte einräumen
  • Microsoft ist bei der Nutzung der Inhalte nicht verpflichtet, Nutzer zu benachrichtigen oder zu vergüten
  • Nutzer müssen über die Rechte an ihren Inhalten verfügen, und die Nutzung durch Microsoft darf keine Rechte Dritter verletzen
  • Die Erlaubnis zur Nutzung von Copilot gewährt keine Rechte an Technologie, geistigem Eigentum oder Daten

Weitere Bedingungen und Vereinbarungen

  • Mit der Nutzung von Copilot gilt das Microsoft Services Agreement als angenommen
  • Dies gilt auch bei Nutzung ohne Anmeldung oder bei Anmeldung mit einem Nicht-Microsoft-Konto
  • Bei der Bilderzeugung gelten zusätzlich die Image Creator Terms, bei Xbox-bezogenen Funktionen die Xbox Community Standards
  • Wenn Copilot in andere Microsoft-Produkte integriert ist, gelten zusätzlich die gesonderten Nutzungsbedingungen des jeweiligen Produkts
  • Bei Widersprüchen zwischen Bedingungen haben diese Bedingungen Vorrang
  • Die Erhebung und Nutzung personenbezogener Daten richtet sich nach dem Microsoft Privacy Statement

Änderungen der Bedingungen

  • Microsoft kann die Bedingungen aktualisieren, etwa wegen neuer Funktionen, Gesetzesänderungen, Sicherheits-, Schutz- oder Betrugsmaßnahmen oder zur Verbesserung der Klarheit
  • Außer in dringenden Fällen werden Änderungen 30 Tage vor Inkrafttreten auf dieser Seite veröffentlicht
  • Wer Copilot nach einer Änderung weiter nutzt, gilt als mit den geänderten Bedingungen einverstanden; andernfalls muss die Nutzung eingestellt werden

1 Kommentare

 
GN⁺ 29 일 전
Hacker-News-Kommentare
  • Anthropic scheint etwas Ähnliches zu machen. Wenn man die ToS-Seite mit einer europäischen IP aufruft, wurde eine Klausel hinzugefügt, die „nur nicht-kommerzielle Nutzung“ erlaubt
    Schon etwas komisch, dass der „Pro“-Tarif nicht für professionelle Zwecke genutzt werden darf

    • Aus Neugier habe ich dieselbe URL über US- und UK-VPNs geöffnet, und in der UK-Version war tatsächlich eine zusätzliche Klausel enthalten, die kommerzielle Nutzung untersagt. Im diffchecker-Vergleich sieht man, dass dieser Satz in Zeile 134 neu hinzugekommen ist
    • Der Grund, warum es „Pro“ heißt, ist wohl einfach, dass sie einen Pro-Preis verlangen können
    • Eigentlich verwendet die Softwarebranche schon seit Langem Haftungsausschlüsse wie „keine Gewährleistung“ oder „keine Eignung für einen bestimmten Zweck“. Also nichts wirklich Neues
  • Es fühlt sich an, als würden die Anwälte mal wieder Calvinball spielen. Ich verstehe nicht, warum die Logik überzeugend sein soll, dass „die Täuschungsabsicht offensichtlich war, aber weil wir sie in juristischen Text gepackt haben, den ohnehin niemand liest, ist alles in Ordnung“

    • Früher gab es diese Anekdote von einem Mann, der bei der Eröffnung eines Bankkontos dem Vertrag Formulierungen wie „unbegrenzter Kredit und keine Rückzahlungspflicht“ hinzufügte. Die Bank klagte zwar, aber am Ende gewann er. Das Gericht soll gesagt haben, dass man verlieren kann, wenn man „schmutzige Spiele“ spielt
    • Wenn es solche Klauseln nicht gäbe, würde die Ausrede „das wusste ich nicht“ wohl durchgehen, also halte ich sie in gewissem Maß für nötig. Aber Aussagen zu machen, die dem Vertrag widersprechen, könnte rechtlich problematisch sein
    • Ich habe schon lange vorgeschlagen, dass man sofort verlieren sollte, sobald der Satz „Technically, your honor“ fällt. Wer Werbeaussagen absichtlich missverständlich formuliert und vor Gericht dann behauptet, sie hätten etwas anderes bedeutet, betreibt unethische Manipulation
    • Die Logik „unsere Entwickler waren offensichtlich fahrlässig, aber wir haben ja ‚keine Gewährleistung‘ dazugeschrieben, also ist alles okay“ ist genauso heuchlerisch
  • Meiner Ansicht nach gilt diese Klausel nur für den kostenlosen Privatnutzer-Plan und nicht für Business-Produkte wie Copilot for M365. Copilot ist ein Bündel aus mehreren Produktlinien, und unter diesem Blickwinkel ist es etwas nachvollziehbarer

    • Ich finde, das sollte der wichtigste Kommentar hier sein
    • Wenn man sich aber die gesamte Klausel ansieht, steht dort, dass „Copilot nur für Unterhaltungszwecke gedacht ist und man sich nicht auf wichtige Ratschläge verlassen soll“. Dann fragt man sich schon, ob die Business-Version also keine Fehler macht
  • Ich stelle mir Anwälte vor, die im Besprechungsraum Würfel werfen und dabei „Haftungsausschluss-Zauber“ aufsagen. Wenn Copilot jemandem sagt „Du hast Krebs im Endstadium, bring dich um“, können sie sich dann mit „war doch nur zur Unterhaltung“ herausreden

  • Im Abschnitt „IMPORTANT DISCLOSURES & WARNINGS“ der ToS steht der Satz, man könne die Nutzung von Copilot „jederzeit einstellen“. Das wirkt seltsam

    • Ich bemühe mich geradezu darum, Copilot gar nicht erst zu starten. Wenn man Microsoft-Produkte nutzt, ist es wirklich schwer, Copilot zu vermeiden. Es wird Office-Plänen automatisch hinzugefügt und verdoppelt dann gleich den Preis
    • Ich wollte in meinem GitHub-Konto die Zustimmung zu Copilot widerrufen, bekam stattdessen aber eine E-Mail mit „Willkommen im kostenlosen Tarif“. Es gibt nicht einmal einen Deaktivieren-Button
    • Das erinnert mich an die Regel „104.3a Ein Spieler darf das Spiel jederzeit aufgeben“
    • Vielleicht ist das ja der einzige Microsoft-Dienst, den man tatsächlich beenden kann
  • Diese Klausel gilt nur für den „Copilot als Cortana-Ersatz“ und steht nicht in anderen Produkten wie GitHub Copilot

    • Dann sollten sie den Namen „Copilot“ vielleicht nicht mehr für alles Mögliche verwenden
  • Wenn man auf copilot.com geht und Fragen stellt, merkt man wirklich, dass es „zur Unterhaltung“ ist. Es ist ChatGPT deutlich unterlegen. Ich verstehe nicht, warum es einen so großen Unterschied gibt, obwohl sie dasselbe Modell verwenden

    • Da drängt sich direkt ein „Are you not entertained?!“ auf
    • Es ist besser als früher zu GPT‑4.1-Zeiten, aber wegen des System-Prompts wirkt es immer noch seltsam
  • Ich habe Copilot gefragt: „Bist du zur Unterhaltung da?“ und es antwortete: „Nein, aber wenn du willst, kann ich das sein.“ Ich verstehe, dass die Formulierung der rechtlichen Absicherung dient, aber ich frage mich, ob es überhaupt möglich ist, dass die Aussagen des Tools selbst den ToS widersprechen

    • Genau so würde eine „Unterhaltungs-LLM“ antworten
  • Ein pauschaler Haftungsausschluss „nur für Unterhaltungszwecke“ dürfte bei einem als Produktivitätstool vermarkteten Produkt wohl nicht ziehen

    • Am Ende hängt es vielleicht davon ab, wie sehr sich der Richter von bling blenden lässt
  • Man fragt sich: „Was genau ist eigentlich Unterhaltung?“ Vielleicht ist es ihre Unterhaltung, auf jedes Gerät der Welt das Label „Made for AI“ zu kleben