Die bisherige Verfügbarkeit von GitHub
(damrnelson.github.io)- Eine Seite, die die monatliche Verfügbarkeit von GitHub von 2016 bis 2026 visualisiert
- Alle Daten basieren auf gesammelten Einträgen der offiziellen Statusseite
- Die Darstellung trennt durchschnittliche Verfügbarkeit (Average) und detaillierte Ausfallübersicht (Breakdown)
- Innerhalb der Seite ist ein direkter Zugriff auf die ursprüngliche Datenquelle (View source) möglich
- Visualisierungsmaterial, mit dem sich langfristige Trends der Service-Stabilität auf einen Blick erfassen lassen
- Ohne zusätzliche Analyse oder Erläuterung, klar auf Datenvisualisierung fokussiert
1 Kommentare
Hacker-News-Kommentare
Ich habe mich gefragt, ob die Daten von vor 2018 tatsächlich korrekt sind.
Ich erinnere mich, dass es auch früher schon mehrere Ausfälle gab.
Vielleicht wurde ab diesem Zeitpunkt erst das heutige Uptime-Tracking-System verwendet.
Diese wirkte allerdings eher wie ein Werkzeug für Marketing/Kommunikation als für Beobachtbarkeit.
Persönlich finde ich diese alternative Status-Seite besser.
Sie heißt „The Missing GitHub Status Page“ und zeigt die Verfügbarkeitsrate der letzten 90 Tage in aggregierter Form.
Aktuell liegt sie bei 90,84 %, also etwas besser als die 90,00 % von vor ein paar Tagen.
GitHub Actions hatte im Februar 2026 eine Verfügbarkeit von 98 %, also nur auf dem Niveau einer einzelnen „9“.
Gefühlt schlug etwa 1–2 von 50 Malen fehl, also ungefähr 2 %.
Wenn zum Beispiel OpenAI ausfällt und CoPilot dadurch nicht funktioniert, ist fraglich, ob man das als GitHub-Downtime zählen sollte.
Es wirkt, als wolle der OP die Ergebnisse seit der Microsoft-Übernahme besonders hervorheben.
Als Witz formuliert: GitHub hat sich damit inzwischen wohl so viel „bezahlten Urlaub“ verdient.
Es ist verzerrend, Daten zu zeigen, ohne den Einführungszeitpunkt der Funktionen zu markieren.
GitHub Actions wurde zum Beispiel erst im August 2019 veröffentlicht, daher ist es nur natürlich, dass es davor keine Ausfälle gab.
Ich habe vor ein paar Wochen mit Claude ebenfalls denselben Graphen erstellt.
Ich hatte erwartet, vor und nach der Microsoft-Übernahme einen steilen Einbruch zu sehen, aber tatsächlich gab es schon lange vorher ein unregelmäßiges Ausfallmuster.
Die Erzählung, dass es vor der Übernahme stabiler gewesen sei, ist interessant, aber damals gab es Produkte wie Actions noch nicht.
Bei den bereits existierenden Diensten (API, Git ops, Pages usw.) könnte es eher durch verbesserte Beobachtbarkeit erklärbar sein.
Danach griffen die Probleme auch auf zuvor stabile Bereiche wie Issues oder PRs über.
Git wurde ursprünglich als Werkzeug entworfen, das eine Sache gut macht, und es war ein großer Fehler, darauf unnötige Funktionen draufzupacken.
Falls Leute nach einem Grund suchen: Dieser Artikel von The New Stack könnte eine Erklärung liefern.
Inzwischen ist das schon fast ein Meme.
Man hätte in einer getrennten Umgebung gründlich testen und innerhalb kurzer Zeit nach Azure migrieren müssen.
Aktuell funktioniert die PR-Merge-Funktion nicht.
Den zugehörigen Status kann man auf der GitHub-Status-Incident-Seite sehen.
Ich erinnere mich, dass ich früher oft die Unicorn-Fehlerseite gesehen habe.
Damals wurde die Status-Seite vermutlich nicht besonders häufig aktualisiert.
Dienste wie die Git API fielen separat aus, und auf der Status-Seite wurde das oft mit Verzögerung sichtbar.
Inzwischen wirkt GitHubs Downtime-Historie schlechter als die meines privaten Servers.
Dabei starte ich oft neu oder stoppe Dienste für Experimente.
Offenbar glauben wir, dass trotz Qualitätsverlust noch ein gewisses QoS-Niveau gehalten wird.
Ich bin niemand, der GitHub verteidigt, aber der Graph hat eine verzerrte Achse.
Es wird nur der Bereich unter 99,5 % vergrößert gezeigt, wodurch es viel schlimmer aussieht, als es tatsächlich ist.
Die Enterprise-SLA liegt bei 99,9 %, und der untere Bereich des Graphen zeigt fünfmal so viel Downtime.
Es sieht also nicht nur schlecht aus, es ist tatsächlich schlecht.
Man sollte auch bedenken, dass es vor der Microsoft-Übernahme eine Beschränkung auf ein einziges privates Repository gab.
Es ist sinnvoll, nur den Bereich im 99-%-Segment zu zeigen.
Eine logarithmische Skala wäre eher übertrieben.
Ich nutze GitHub Pages zum Hosten einer Website und habe daher die Verfügbarkeit von statischem Hosting separat untersucht.
Laut dieser Blog-Analyse schneidet GH Pages in diesem Bereich ziemlich gut ab.
Der Verdienst dafür dürfte allerdings eher dem Fastly-CDN gebühren.