6 Punkte von GN⁺ 2026-03-28 | 3 Kommentare | Auf WhatsApp teilen
  • GitHub plant, Code und Daten aus privaten Repositories für das Training von KI-Modellen zu verwenden
  • Nutzer müssen vor dem 24. April ausdrücklich widersprechen (Opt-out), um die Nutzung ihrer Daten zu verhindern
  • Ohne Widerspruch können Informationen aus privaten Projekten in die Trainingsdaten einfließen
  • Die Richtlinie steht im Zusammenhang mit der Datenerhebung zur Verbesserung von KI-Funktionen wie GitHub Copilot
  • Entwickler sollten zum Schutz von Privatsphäre und Code-Sicherheit ihre Einstellungen überprüfen

Änderung von GitHubs Richtlinie für KI-Trainingsdaten

  • GitHub hat seine Richtlinie so geändert, dass Daten aus privaten Repositories zur Verbesserung von KI-Modellen in das Training einbezogen werden können
    • Wenn Nutzer nicht gesondert widersprechen, werden ihre Daten automatisch verwendet
    • Der Widerspruch kann direkt auf der Einstellungsseite von GitHub vorgenommen werden
  • Zu den Trainingsdaten können privater Code, Projekt-Metadaten und Commit-Verläufe gehören
  • Diese Maßnahme wird als Beitrag zur Verbesserung der Qualität von Copilot und anderen KI-Funktionen erklärt

Auswirkungen auf Entwickler

  • Wenn private Repositories für das Training genutzt werden, besteht das Risiko der Offenlegung sensiblen Codes oder interner Logik
  • Unternehmen und einzelne Entwickler sollten Sicherheitsrichtlinien prüfen und das Opt-out-Verfahren durchführen
  • Diese Änderung bei GitHub dürfte die Diskussion über Transparenz von KI-Trainingsdaten und die Kontrollrechte der Nutzer weiter anheizen

3 Kommentare

 
runableapp 2026-03-30

Das wird mir seit ein paar Tagen ständig auf GitHub angezeigt,

Wichtiges Update
Am 24. April werden wir beginnen, Interaktionsdaten von GitHub Copilot für das Training von KI-Modellen zu verwenden, sofern Sie dem nicht widersprechen. Prüfen Sie dieses Update und verwalten Sie Ihre Einstellungen in den Kontoeinstellungen von GitHub.

Ich habe widersprochen, aber ich habe den Eindruck, dass sie es schon seit früher für KI genutzt haben, oder?

 
github88 2026-03-29

Das ist doch eine viel zu dreiste Falschmeldung.

 
GN⁺ 2026-03-28
Hacker-News-Kommentare
  • Das wird seit 2023 immer wieder gesagt. Wenn Informationen in einer Datenbank in einer Form gespeichert sind, auf die ein Unternehmen frei zugreifen kann, wird dieses Unternehmen am Ende die Nutzungsbedingungen so ändern, dass sie als Trainingsdaten für KI verwendet werden können. Die Anreize sind so stark, dass es wohl unvermeidlich ist

    • Stimmt. Selbst wenn ein Unternehmen noch so ethisch handelt, kann sich das nach einer Übernahme ändern. Ich arbeite bei einem S&P-500-Unternehmen, und aktuell ist der Zugriff auf die Produktion streng kontrolliert. Aber wenn jemand wie Larry, Zuck oder Bezos die Firma kauft, weiß niemand, was dann passiert
    • „Erst machen, dann entschuldigen“ scheint das allgemeine Prinzip zu werden. Selbst ohne Änderung der ToS kann man es in der Praxis trotzdem so handhaben. Amazon hat intern bereits einen riesigen Trainingsdatensatz
    • Ich mache mir Sorgen, dass MS den Code, den ich auf meinem Laptop schreibe, für KI-Training verwendet. Das Misstrauen der Linux-Nutzer, das früher wie eine Verschwörungstheorie klang, erscheint mir inzwischen immer nachvollziehbarer
    • Du hast recht. Es ist frustrierend, dass die Leute das nicht als völlig selbstverständlich ansehen. Stallman hatte immer recht
    • Wenn du den Schlüssel nicht selbst besitzt, ist das keine Ende-zu-Ende-Verschlüsselung. Man sollte solchen Unsinn nicht durchgehen lassen
  • Jemand widerspricht mit Verweis auf den offiziellen GitHub-Blog. Nutzer von Free, Pro und Pro+ Copilot werden für das Modelltraining herangezogen, wenn sie sich nicht abmelden (opt-out). Business- oder Pro-Abonnenten sind nicht im Training enthalten. Wer Copilot nicht nutzt, ist nicht betroffen. Wenn man sich jetzt vorab abmeldet, bleibt die Einstellung später erhalten

    • Laut Blog werden Eingaben, Ausgaben, Code-Kontext, Kommentare, Dateistruktur, Feedback usw. erfasst. Aber dort steht nicht „wenn Sie teilnehmen möchten“, sondern „wenn Sie nicht teilnehmen“. Genau diese Opt-out-Struktur ist das Problem. Es ist unfair, dass ich Aufwand betreiben muss, um meine Privatsphäre zu schützen
    • Die Formulierungen im Detail sind zu vage zerstückelt. Wenn Copilot Eingaben, Ausgaben und Code-Kontext zum Training nutzt, bedeutet das letztlich, dass Teile des Codes aus privaten Repos als Trainingsdaten verwendet werden
    • Sowohl der Titel als auch die Antwort sind zu pauschal. Ab dem 24. April werden private Repos von Nutzern ohne Business/Pro standardmäßig ins Training einbezogen. Nicht jedes Repo ist betroffen, aber die Wortwahl sollte sorgfältiger sein. Statt „No we won’t“ wäre „nicht ganz korrekt“ passender gewesen
    • Es ist trotzdem weiterhin ein ernstes Problem. Wenn Code in das Training eines LLM eingeht, ist er nicht mehr privat. „Private Repo“ zu schreiben und im Kleingedruckten zu ergänzen, dass es offengelegt werden könnte, ist eine Lüge
    • Nach EU-Recht gilt ein Opt-out-Modell nicht als wirksame Einwilligung. Ich frage mich, wie sie das lösen wollen
  • Der Titel dieser Meldung ist irreführend. GitHub trainiert nicht das private Repo selbst, sondern die Interaktionsdaten, die bei der Nutzung von Copilot entstehen. Wer Copilot nicht nutzt, ist nicht betroffen. Trotzdem sollte man es besser deaktivieren

    • Aber was passiert, wenn einer meiner Mitwirkenden Copilot verwendet?
    • So hatte ich es auch verstanden, aber wenn Eingaben trainiert werden, kann niemand garantieren, dass nicht doch der Code selbst trainiert wird. Vor Gericht könnte man dann behaupten: „Wir haben nur die Eingaben trainiert“
    • Solche feinen Unterscheidungen sind letztlich bedeutungslos. Selbst wenn es jetzt so ist, kann es später stillschweigend geändert werden. Entwickler glauben, das System verstanden zu haben, werden am Ende aber immer weiter getäuscht
  • Genau genommen ist das Opt-out eine Einstellung für das Copilot-Training. Bisher waren nur öffentliche Repos per Opt-in dabei, aber ab dem 24. April sind auch private Repos standardmäßig eingeschlossen. Wenn du Copilot in privaten Repos nutzt, solltest du dich unter github.com/settings/copilot abmelden. Das dauert 30 Sekunden

    • Nicht 30 Sekunden, sondern 0 Sekunden. Meine Zeit gehört mir, und es gibt keinen Grund, warum ich Zeit aufwenden muss, um meine Privatsphäre zu schützen
    • „Das dauert nur 30 Sekunden“ zeigt, wie realitätsfern das ist. Um solche Informationen überhaupt zu kennen, muss man täglich HN durchforsten. Am Ende verbringt man 240 Stunden nur damit herauszufinden, dass es diesen Schalter gibt
    • Früher war es kein Opt-in. Damals wurden Nutzungsdaten nicht trainiert. Es wurde nur intern trainiert, und dadurch habe es Leistungsverbesserungen gegeben. Mehr dazu steht in diesem Blogbeitrag
    • Die Einstellung ist nicht für alle Nutzer sichtbar. Wenn Copilot auf Organisationsebene verwaltet wird, verschwindet diese Option. Verlässt man die Organisation, wird man möglicherweise automatisch wieder auf Opt-in gesetzt
  • Ich frage mich, ob Copilot auf das gesamte Repo zugreifen kann, wenn auch nur eine Person im Team kein Opt-out gesetzt hat. Ich würde auch gern wissen, ob es eine Möglichkeit gibt, den Einstellungsstatus der Teammitglieder zu prüfen

    • So wie man nicht verhindern kann, dass ein Teammitglied Code kopiert und in einen Prompt einfügt, lässt sich auch diese Einstellung nicht kontrollieren. Aus Sicht von MS ist ein standardmäßiges Opt-in viel bequemer
  • Derzeit ist diese Einstellung nur pro Benutzer möglich. Ich frage mich, ob es eine Möglichkeit gibt, sie für die gesamte Organisation gesammelt zu deaktivieren. Ich mache mir Sorgen, ob schon der aktivierte Schalter einer einzelnen Person dazu führt, dass der Code der Organisation als Trainingsdaten gilt

  • Ich erkenne an, dass GitHub beständig Banner-Hinweise eingeblendet hat. Aber auch ich habe sie vor diesem HN-Beitrag nicht gelesen

    • Aber wer git nur über die CLI nutzt, sieht dieses Banner nicht
    • Selbst wenn man Banner oder E-Mails liest, steht dort nicht klar, welche Einstellung genau geändert werden muss, um sich abzumelden. Am Ende muss der Nutzer es selbst suchen und erfährt erst später, ob es überhaupt korrekt eingestellt wurde
    • Ich habe dieses Banner noch nie gesehen. Ich frage mich, wo es angezeigt wird
    • Das ist das erste Mal, dass ich sehe, dass eine App Einstellungen zurücksetzt oder verliert
  • Mein privates Repo ist so chaotischer Code, dass ich mir keine Sorgen machen muss. Wenn ein LLM auf meinem Code trainiert, ist das eher ein Nachteil für das Modell

    • Ich bin dabei. Ich werde die KI von M$ mit meinem Müllcode ruinieren
    • Ein LLM zu vergiften ist als Form des Widerstands irgendwie interessant
  • Mit Leuten, die GitHub seit Langem bezahlen und die Ankündigung nicht gesehen haben, habe ich Mitleid

    • Ich mag das Opt-out-Modell auch nicht, aber aktuell gibt es auf allen GitHub-Seiten Banner-Hinweise, und es wurde auch eine E-Mail verschickt