4 Punkte von GN⁺ 2025-06-08 | 1 Kommentare | Auf WhatsApp teilen
  • Betont die Erfahrungen mit und die Bedeutung von technologischer Unabhängigkeit und Self-Hosting
  • Erklärt, dass der Besitz einer Domain und der eigenständige Betrieb eines Blogs langfristig große Vorteile für Karriere und persönliche Entwicklung bringen
  • Erwähnt den Wert von Community und Lernen, den man gewinnt, wenn man in einem offenen Open-Source-Ökosystem eigenes Wissen und eigenen Code teilt
  • Stellt den Aufbau eines Homelabs und verschiedene Open-Source-Tools zum Self-Hosting vor und hebt die Freiheit hervor, die man beim tatsächlichen Einsatz abseits der Grenzen abonnementbasierter Dienste spürt
  • Betont den positiven Einfluss von Markdown-basiertem Content-Sharing und dem Open-Source-Gedanken auf das Software-Ökosystem sowie die Stärkung der eigenen Fähigkeiten

Einleitung: der Wert technologischer Unabhängigkeit und des Selbstaufbaus

  • Nachdem der Autor ein Video von PewDiePie gesehen hatte, in dem er Arch Linux installiert und selbst Produkte auf Open-Source-Basis baut, wurde ihm erneut bewusst, wie wichtig Self-Hosting und technologische Unabhängigkeit beim Aufbau eigener Dinge sind
  • Eine selbst aufgebaute Domain, ein eigener Blog und selbst verwaltete Dienste werden langfristig zu kumulierten Vermögenswerten, was weit mehr bedeutet als ein bloßer Plattformwechsel

Die Stärke von Domain-Besitz und eigenem Blogbetrieb

  • Menschen, die neu mit dem Schreiben beginnen oder über Jobsuche nachdenken, empfiehlt er zuerst den Kauf einer eigenen Domain und den Betrieb eines eigenen Blogs
  • Da beim Wechsel von Plattformen immer wieder wertvolle Inhalte und Domains verloren gehen, ist es wichtig, die eigene Domain selbst zu besitzen und Inhalte dauerhaft unter derselben Adresse aufzubauen
  • Mit der Zeit werden angesammelte Backlinks, alte Beiträge und getätigte Investitionen zu langfristiger Glaubwürdigkeit

Die Self-Hosting-Erfahrung und das Lernen des Autors

  • Der Autor hostet verschiedene Dienste wie Blog, zweites Gehirn, Buch, Abonnentenliste selbst und nutzt dafür GoHugo, Listmonk, Memberstack und andere
  • Durch den Aufbau einer Homelab-Umgebung, SSH, Backups, Fotoverwaltung, Gitea sowie die Automatisierung von Proxy/SSL-Zertifikaten baut er schrittweise seine technischen Fähigkeiten aus
  • Auch wenn es anfangs schwierig wirkt, sind Lernen und Erfolgserlebnis im Prozess die größte Belohnung

Der Wert von Open Source und Community

  • Die Nutzung und Mitarbeit an Open-Source-Software macht technologische Unabhängigkeit möglich; auch sein eigenes Wissen und seine Tools veröffentlicht er auf GitHub
  • Bei Open Source kann dank verschiedener Lizenzen jeder die Software frei nutzen, und die Möglichkeiten für Community-Feedback und Zusammenarbeit nehmen zu
  • Der Autor begann, sich für das Open-Source-Ökosystem zu begeistern, nachdem er Erfahrungen mit einem Open-Source-BI-Tool gemacht hatte; inzwischen basieren die meisten seiner Online-Aktivitäten und auch seine Texte zum Data Engineering darauf

Linux und Linus Torvalds

  • Linux ist ein Kernbestandteil digitaler Geräte weltweit, und weil Linus Torvalds es nicht kommerzialisiert hat, konnte es sich global so weit verbreiten
  • Torvalds entwickelte auch git, das zu einem unverzichtbaren Werkzeug für alle Softwareentwickler weltweit geworden ist
  • Wenn man seine Arbeit als Open Source veröffentlicht, ermöglicht das anderen Lernen, Feedback, Beiträge und Verbindungen und trägt damit nicht nur zum eigenen Wachstum, sondern auch zur Weiterentwicklung der Community bei

Dank und Open-Source-Tools

  • Es gibt einige Open-Source-Tools, die der Autor häufig nutzt und für die er dankbar ist
    • Quartz: Open-Source-Alternative zu Obsidian Publish
    • GoatCounter: Tool zur Analyse anonymisierter Website-Zugriffe
    • Listmonk: Open-Source-System für Newsletter-Listen
    • listmonk-rss: automatischer E-Mail-Versand beim Schreiben von Blogbeiträgen
  • Beispiele für empfohlene Open-Source-Software im Homelab:
    • Paperless: Digitalisierung und Verwaltung von Dokumenten
    • PhotoPrism: KI-basierte, selbst gehostete Fotoverwaltung
    • Pi-hole: Werbeblocker für das gesamte Netzwerk
    • Nginx Proxy Manager: Domain-Routing und SSL-Automatisierung
    • Audiobookshelf: Server für Hörbücher/Podcasts
    • Calibre: E-Book-Verwaltung
    • Syncthing: verteilte Dateisynchronisierung
    • Gitea: leichtgewichtiger selbst gehosteter Git-Dienst

Auch mit günstiger Hardware genug Raum zum Experimentieren

  • Selbst ohne teure aktuelle Server lässt sich mit gebrauchten Client-Servern und einem guten Betriebssystem problemlos ein Homelab aufbauen
  • Im Mittelpunkt stehen die Freude am Lernen und die Unabhängigkeit, die man durch den direkten Aufbau und Betrieb gewinnt

Technologische Unabhängigkeit und Plattformrisiken

  • Durch eigenes Aufbauen und Hosten wird man unabhängig von Risiken wie Funktionsänderungen oder der Einstellung von Diensten großer Anbieter wie Google oder Apple
  • Die eigentliche Stärke von Tech Independence liegt in der Freiheit, die eigene Umgebung und ihre Besonderheiten selbst zu entwerfen und anzupassen

Schluss und die Bedeutung von Markdown

  • Betont werden die Freude an Open Source, am Selberbauen und am Teilen von Erfahrungen sowie die Tatsache, dass alle Lösungs- und Content-Produktionsgrundlagen einheitlich auf Markdown basieren

  • Markdown garantiert Kompatibilität zwischen verschiedenen Plattformen und ist zu einem Standardwerkzeug der Open-Source- und Wissensaustauschkultur geworden

  • Weitere Blogs zum Data Engineering, Notizen zum zweiten Gehirn und ein öffentlich geschriebenes Buch sind alle über ssp.sh und GitHub zu finden

  • Der Austausch von Erfahrungen und Diskussionen mit Lesern sind jederzeit willkommen

1 Kommentare

 
GN⁺ 2025-06-08
Hacker-News-Kommentare
  • Es ist mir etwas unangenehm, weil es Eigenwerbung ist, aber ich möchte darauf hinweisen, dass man fürs Self-Hosting in der Praxis nicht unbedingt neue Hardware kaufen muss. Alte Laptops, die nach ein paar Jahren unter Windows zu langsam geworden sind, liefern als Linux-Server immer noch ausreichend Leistung. Die Wahrscheinlichkeit ist hoch, dass bei einem selbst oder im Freundeskreis irgendwo ein alter Laptop herumliegt, und ich selbst nutze mit einer zweiten Person problemlos ein i3-Notebook aus dem Jahr 2011, ohne dass selbst jetzt, im Jahr 2025, ein Upgrade nötig erscheint. Laptops sind im Leerlauf auch energieeffizient, weshalb sie langfristig oft vernünftiger sind als Desktops. Für Einsteiger ins Self-Hosting sind Laptops meiner Meinung nach hervorragende Kandidaten für den ersten Server. (Zur Info: In Laptops ist keine UPS eingebaut, daher würde ich bei 24/7-Betrieb unbedingt empfehlen, den Akku zu entfernen.)
    Artikel zur Wiederverwendung alter Hardware

    • Ich gebe zu, dass ich diesen Beitrag gerade auf einem 13 Jahre alten Acer-Laptop mit Linux Mint XFCE schreibe. Es tut mir immer leid, alte Geräte wegzuwerfen, deshalb habe ich ihn auch nach dem Kauf eines neuen Laptops per HDMI an den Fernseher im Wohnzimmer angeschlossen und mit einer Logitech K400+ Funk-Tastatur/Trackpad für 25 Dollar eingerichtet. Websurfen, YouTube und Netflix laufen alle problemlos, und wenn ich gelegentlich etwas erledigen muss, öffne ich VS Code oder Thunderbird. Sogar Indie-Games auf Steam laufen mit Gamepad ohne Probleme. Wenn Framework-Laptops auch in mein Land kämen, gäbe es wahrscheinlich noch viel mehr solcher Weiterverwendungsszenarien, aber leider wird in mein Land noch nicht geliefert.

    • In meiner Gegend in Schweden, einer Wohnanlage mit 250 Haushalten, ist es ganz normal, dass Leute alte Computer beim Elektroschrott entsorgen. Jedes Mal, wenn ich mit dem Hund spazieren gehe, halte ich wie eine Figur aus Mad Max mehrmals täglich Ausschau danach. Ich kombiniere Teile aus mehreren Geräten, installiere Debian und lasse Docker-Container für alle möglichen Zwecke laufen. Solche Frankenstein-Server habe ich auch schon an meine Eltern, Cousins und Freunde verschenkt. Es ist erstaunlich, wie viele noch brauchbare Geräte die Leute wegwerfen. Immer wieder finde ich auch Laptops ohne Passwort, und wenn man sich in Windows anmeldet, sind sie voll mit Familienfotos. Gelegentlich findet man sogar entsperrte iPhones von vor etwa fünf Jahren. Man kann nur denken, was für eine seltsame Welt das ist.

    • Ich habe auch noch einen Mac Mini von 2012 zu Hause. Ich habe ihn geschenkt bekommen und hatte nie vor, auf Mac umzusteigen, aber auch wenn er nicht besonders leistungsstark ist, ist die Performance ordentlich. Letzte Weihnachten habe ich ihn gebootet, und schon mit dem Standard-OS war er sehr langsam; nach einem macOS-Update war er praktisch unbenutzbar. Ich habe dann nach einem YouTube-Tutorial die SSD getauscht, Debian installiert und CasaOS (ein webbasiertes Home-Server-OS/UI) aufgesetzt. Seitdem habe ich mir mit Wireguard einen Fernzugriff eingerichtet und streame Musik über Navidrome. Von Docker verstehe ich noch nicht viel, aber ich lerne gerade allerlei Dinge wie PATH-Mappings.

    • Wenn man kein Problem damit hat, auf dem Gebrauchtmarkt einzukaufen, baue ich mir derzeit einen Proxmox-Knoten mit Threadripper der 3. Generation, 32 Kernen/64 Threads, 256GB ram, 2x10G, 2x2.5G, dediziertem IPMI-Management über ein 1G-Interface und 64 PCIe-Gen-4-Lanes für unter 2.000 Euro auf.

    • Bei Setups unterhalb von RAID6/RAIDZ2 besteht ein ziemlich großes Risiko für Datenverlust. Die meisten Laptops haben nicht genug SATA-/M.2-Ports für ein Parity-Setup, deshalb braucht man für Fehlertoleranz auf RAID-Niveau am Ende doch neue Hardware. Wenn man dem Grundsatz folgt, Backups auf mindestens zwei physische Standorte zu verteilen, ist eine doppelte Absicherung natürlich am besten.

  • Ich verstehe den Wunsch nach Self-Hosting, aber ich verstehe auch vollkommen, wenn man keine Lust darauf hat. Self-Hosting ist mühsam: Man muss Docker-Updates machen, wenn etwas kaputtgeht, muss man es selbst beheben, und selbst wenn alles läuft, fühlt es sich oft eher etwas improvisiert als wirklich rund an. Im Moment ist die Liste an self-hosted Tools, die mir zuverlässig Zeit sparen, sehr kurz (an erster Stelle firefly); vieles habe ich eingerichtet, es ist dann kaputtgegangen und ich habe es am Ende aufgegeben. Inzwischen bezahle ich einfach für Produkte von Unternehmen, die meine Privatsphäre respektieren und preislich vernünftig sind.

    • Ich glaube, Docker ist die Ursache des Problems. Docker fügt bei Storage, Networking und anderem unnötige Abstraktionsschichten hinzu, und für Sicherheitsupdates und Ähnliches muss man Container neu bauen oder hoffen, dass jemand anders das tut. Wenn möglich, sollte man bei Diensten bleiben, die als Upstream-OS-Paket oder als einzelne Binärdatei ausgeliefert werden können (wie man es oft bei Go-Projekten sieht); langfristig lässt sich das einfacher betreiben.

    • Ich frage mich, warum man Docker unbedingt aktualisieren muss. Bei mir läuft Docker seit über einem Jahr ohne Update. Das Upgrade von Docker-Images kostet mich vielleicht 15 Minuten im Monat. Und Unternehmen, die Privatsphäre wirklich respektieren, sind extrem selten, und es ist schwer zu glauben, dass sie über Jahre hinweg an ihren eigenen Prinzipien festhalten.

    • Es ist schon extrem schwer, überhaupt Unternehmen zu finden, die die Privatsphäre respektieren und gleichzeitig preislich gut sind.

    • Mich würde interessieren, mit welchen Projekten du Probleme hattest. Meine Erfahrung ist, dass fast alles problemlos läuft, sobald ein Projekt schon Docker Compose mitliefert. Und ich denke, dass fast jedes Unternehmen irgendwann das Vertrauen verrät. Deshalb sollte man ihnen gar nicht erst die Gelegenheit dazu geben. Ich self-hoste Home Assistant, und bei dieser Firma ist ungewöhnlich, dass sie sogar rechtliche Vorkehrungen getroffen hat, damit nicht gegen die Nutzer gearbeitet werden kann.

  • Ich self-hoste die meisten Dinge, die ich brauche, aber ich hatte kürzlich einen echten Krisenmoment, als das Internet zeitweise ausfiel. Dabei habe ich mir folgende Fragen gestellt:

    • Wie produktiv kann ich ohne Internet bleiben?
    • Was fehlt mir dann?
      Am Ende wurde mir klar, dass ich mehr Dokumentation archivieren muss, und dass NixOS offline praktisch kaum nutzbar ist, wenn man keinen eigenen Cache-Server betreibt – das ist sehr unpraktisch. Das Ergebnis dieses Experiments war aber auch die Erkenntnis, dass ich ohne Internet die meisten Dinge, die ich brauche, selbst hosten kann und in dieser Umgebung sogar deutlich produktiver bin.
    • Wenn man selbst devdocs hostet und zeal für Linux als Offline-Dokumentationsviewer verwendet, löst das einen großen Teil des Offline-Doku-Problems.
      devdocs github
      offizielle Seite von zealdocs

    • Jedes Mal, wenn es Downtime gibt, sehe ich die Schwächen meines Systems als neue Chance. Wenn das unvermeidbar ist, weil Upstream Probleme macht, dann ist das eben so. Aber wenn es Gegenmaßnahmen gibt, mache ich mir Szenarien mit einem sinnvollen Kosten-Wahrscheinlichkeits-Verhältnis, und genau diese Arbeit macht mir sogar Spaß.

    • Ich bin jemand, der dieses Offline-Ideal einmal bis zum Maximum getrieben hat. Die Zeiten vollständiger Internettrennung waren die produktivsten Phasen meiner Arbeit. Ich habe einen bash-Alias, der komplette Websites rekursiv mit wget speichert, lade mit yt-dlp die gewünschten Videos herunter, habe mit Kiwix eine vollständige Offline-Kopie der Wikipedia, speichere E-Mails lokal und kann sie offline schreiben und später in eine Queue stellen, speichere einzelne Seiten effizient mit der SingleFile-Erweiterung, und Zeal ist ein empfehlenswertes Tool als Open-Source-Dokumentationsbrowser.

    • Ich stimme dem Punkt zu, dass „NixOS ohne eigenen Cache offline nicht nutzbar ist“. Bei Software, die einen Paketmanager verwendet, braucht man unbedingt einen Cache oder ein Backup des Repositories. Dass das System nur vollständig funktioniert, wenn alle Einzelpersonen am Ende des Abhängigkeitsbaums dauerhaft ihren Teil beitragen, ist für mich der fragilste Punkt an der heutigen Art der Softwareentwicklung. Für Endanwendersoftware sind einzelne Pakete, die alle Abhängigkeiten enthalten, meiner Meinung nach viel besser. Auf der realen Hardware wird es am Ende ohnehin in genau dieser Form gespeichert.

    • Kiwix (eine Offline-Lösung für Wikipedia) und verschiedene Jellyfin-Setups sind starke Offline-Ressourcen. Distributionen wie NixOS oder Gentoo verlangen dagegen tendenziell eine dauerhafte Internetverbindung. Ein vollständiges Mirroring der Paketquellen ist praktisch kaum machbar.

  • Zum Rat „Kauf dir zuerst eine Domain“: In Wirklichkeit mietet man eine Domain nur, man kann sie nicht wirklich kaufen. Wenn eine Zahlung einmal ausbleibt, wird man sofort hinausgeworfen. Diese Vergänglichkeit der Online-Identität ist schon fast traurig.

    • Der Teil „Domains sind nur gemietet“ stimmt, wenn man nur die von ICANN genehmigte Root-Zone bzw. die entsprechenden Registries nutzt. Ich betreibe aber seit Jahren experimentell meine eigene Registry mit einer eigenen Root-Zone, die ich mit niemandem teile. Ich habe auch ausprobiert, benutzerdefinierte TLDs zu verwenden, um sämtliche weltweiten Produkt- und Dienstleistungsklassifikationen in Domainnamen abzubilden, und konnte dabei die Mehrdeutigkeit und Unangemessenheit der ICANN-TLDs direkt erleben.

    • Das ist eine Art technischer Einschränkung. Wenn ich all meine Geräte, also alle Konsumenten von Domainnamen, so konfiguriere, dass sie alles, was mit einem bestimmten öffentlichen Schlüssel signiert ist, als „XorNot.com“ akzeptieren, dann ließe sich das System ersetzen. Mit etwas mehr technischer Unterstützung könnte man die gesamte heutige Struktur meiner Meinung nach durch eine „Liste vertrauenswürdiger Schlüssel-Namens-Zuordnungen“ austauschen.

  • Wir leben in einer Zeit, in der sich das Ökosystem für Self-Hosting-Tools stark weiterentwickelt hat. Man kann mit gehosteten Komponenten anfangen und nach und nach jedes Element durch self-hosted Varianten ersetzen. Auch mein Blog ist auf einem Heimserver self-hosted.
    Davor nutze ich Cloudflare Tunnel, habe früher aber auch schon nginx+letsencrypt+public_ip verwendet, und den Datenspeicher kann ich ebenfalls flexibel zwischen Cloudflare R2, S3 oder lokalem NAS austauschen (über FUSE bleibt sogar die Zugriffsmethode gleich).
    Ressourcen, die man wirklich mieten muss, sind im Grunde nur die Domain (auch wenn es wie ein Kauf aussieht, ist es nur eine Miete) und der Internetanschluss; fast alles andere ist heute optional. Natürlich wird es unbequem, wenn man Dienste abschaltet, aber die Grundfunktion bleibt erhalten.
    Im Vergleich zu früher ist das heute wirklich unglaublich einfach. In den 90ern und frühen 2000ern waren solche Tools kaum vorstellbar.
    Nur die Anforderungen zur Spam-Vermeidung bei E-Mail sind deutlich schwieriger geworden. Bis vor acht Jahren habe ich meine Mail noch selbst betrieben, inzwischen nutze ich G Suite.

  • Ich denke, es geht nicht darum, „ob man self-hosten sollte“, sondern darum, die Fähigkeit dazu zu haben. Es ist ein inklusiverer Blickwinkel, wenn man Dinge auch anderen überlassen kann, wenn einem das technische Wissen fehlt oder man lieber bezahlt. Die Leute, die sagen „Dann zahle ich halt dafür“, laufen langfristig in Wirklichkeit das größte Risiko. Heutige Unternehmen planen ihre Produkte oft so, dass langfristige technische Abhängigkeit die Kunden als Geiseln festhält. Auch wenn man sich nicht für FOSS interessiert, ist die Möglichkeit eines Anbieterwechsels eine wirklich wichtige Frage. Wenn man in Lock-in gerät, kann man jederzeit unangemessen behandelt werden. Es gibt viele Unternehmen, die ausschließlich in solchen Strukturen denken.

    • Das, was Bluesky als „credible exit“ bezeichnet, ist ein etwas ähnliches Konzept.
      Ich schätze Zulip sehr als Dienst, der Open Source, Self-Hosting, Cloud-Service und Wechsel in beide Richtungen unterstützt.
  • In einer Zeit, in der es unzählige Entwickler gibt und AI die Menge an Code, der zu Hause erzeugt werden kann, in extrem unterschiedlicher Qualität vervielfacht, könnte Self-Hosting definitiv zu einem Trend werden.

  • Wenn man nur die Grundlagen von Linux lernt, finden viele Self-Hosting schon attraktiv, selbst wenn es nicht unbedingt nötig ist, weil es ein besonderes Gefühl von Freude und Erfüllung gibt, „meine Dienste selbst zu betreiben“.
    Der größere Effekt ist aber, ein reales Risiko auszuschalten: dass ich von einer Plattform, von der ich vollständig abhängig bin, ohne ersichtlichen Grund ausgeschlossen werden kann. Wenn sogar ein Gmail-Konto verloren geht, können „normale“ Leute plötzlich Probleme bekommen, weil dann ihre Online-Identität im Konto, Passwort-Resets und sogar App-Logins nicht mehr funktionieren. Selbst auf Hacker News gibt es sicher Leute, für die ein verlorenes Gmail-Konto das Leben ernsthaft erschweren würde. Deshalb bin ich der Meinung, dass zumindest die E-Mail-Identität mir selbst gehören sollte. Dieses Prinzip muss man auf Webhosting, AWS, Spotify, Netflix und alle anderen Online-Dienste ausweiten; ein bloßer „Wechsel zu einem anderen Cloud-Hoster“ löst das Problem nicht.

    • Was ich schade finde: Informationen zur Installation eines Mailservers gibt es reichlich und sie ist auch nicht besonders schwer, aber es gibt kaum Material darüber, wie man den Betrieb selbst organisiert, gerade bei Kompatibilitätsproblemen oder Störungen. Wenn Google etwa meinen Server auf eine Blacklist setzt, an wen wende ich mich dann, und gibt es für solche Fehlermeldungen standardisierte Reaktionsabläufe? Für die Realität des Betriebs gibt es nur wenig Hilfestellung. Man bräuchte Anleitungen dazu, wie man mit unfairen externen Faktoren wie globalen IP-Blocks umgeht. Nicht DKIM, DNS und ähnliche Protokollfragen, sondern praxisnahe Leitfäden für den Umgang mit anderen Anbietern im laufenden Betrieb.

    • Man sollte einfach eine eigene Domain besitzen, sie mit dem gewünschten E-Mail-Anbieter verbinden und bei Problemen sofort zu einem anderen wechseln. Die Domain selbst ist günstig, und die anbietergebundene E-Mail-Adresse des Providers sollte man auf keinen Fall verwenden.
      Und dieses Prinzip gilt unabhängig davon, ob man seinen Mailserver selbst betreibt oder einen kommerziellen Dienst nutzt. Das sind zwei getrennte Fragen.

    • Das Risiko ist real und die Gefahr klar, aber ich bin nicht sicher, ob es ein Risiko ist, das wirklich sehr viele Menschen trifft. Der Hauptgrund, warum die Mehrheit der frühen Gmail-Nutzer es übernommen hat, war die schlechte Qualität der damaligen Alternativen. ISP-Mail, Uni- oder Firmenmail konnten jederzeit verschwinden, wenn man sie nicht mehr brauchte. Self-Hosting kann das Problem „teilweise“ lösen, aber wenn man nicht in der Lage ist, die Sicherheit aufrechtzuerhalten, hat man auch mit einem selbst verwalteten Mailserver keine vollständige Kontrolle. Man muss sich um Dinge wie die Domainverlängerung kümmern, und wenn man das vernachlässigt, verliert man auch dort seine Identität. Ich kann gut verstehen, warum Gmail und einige andere große Anbieter so beliebt sind. Für die meisten Menschen ist das kurz- und mittelfristig immer noch die bessere Wahl.

    • Wenn ich zu Hause self-hoste, frage ich mich, welches Risiko größer ist: dass eine HDD ausfällt oder dass ich mein Gmail-Konto verliere. Sobald man selbst hostet, wachsen die Dinge, um die man sich kümmern muss, sprunghaft an: Platz für Hardware, Backup-Planung, Update-Management. Und wenn man auch noch Stromausfälle während Updates oder Backups bedenken muss, landet man am Ende bei einer UPS. Ich hatte allerdings schon den Fall, dass eine defekte UPS sogar die Festplatten meines NAS beschädigt hat. Irgendwann wird es einfach zu viel, und man hat weniger Zeit, sich auf den Alltag zu konzentrieren.

    • Meiner Ansicht nach kann Self-Hosting sogar selbst ein wichtiges Risiko erzeugen. Wenn man den lokalen private key oder die Haupt-E-Mail-Domain verliert, gibt es keine Wiederherstellung. 2FA und Account-Recovery sind bei externen Anbietern viel komfortabler. Ich bin nicht gegen Self-Hosting an sich, aber für die meisten Menschen ist ein Weg, auf dem Account-Wiederherstellung sichergestellt ist, deutlich sicherer.

  • Seit es das offizielle Installationsprogramm für Arch Linux gibt, finde ich, dass man kaum noch behaupten kann, es sei zu schwierig. Der Einstieg ist zwar weiterhin über die Kommandozeile, aber verglichen mit früher, als man sich mit komplizierten Berechnungen von Partitionsblöcken herumschlagen musste, ist es heute deutlich einfacher.

  • Ich betreibe zu Hause einen Kubernetes-4-Node-Pi-Cluster und einen Intel N150 Mini-PC, die ich gemeinsam mit Portainer verwalte.
    Unter den Open-Source-Betriebstools haben die folgenden Werkzeuge meine Produktivität spürbar verändert (alle laufen in einer Container-Umgebung):

    • kubetail: Clusterweiter K8S-Log-Viewer. Installation per Helm-Chart. Sehr zu empfehlen
    • Dozzle: Docker-Log-Viewer für den N150-Mini-PC (dort läuft nur Docker statt Kubernetes). Manuelle Installation über Portainer
    • UptimeKuma: Nur für Monitoring/Alarme von Servern, http/https-Endpunkten, PostgreSQL usw. Manuelle Installation über Portainer
    • Beszel: Monitoring für Server-cpu, Arbeitsspeicher, Festplatten, Netzwerk und Docker-Container. Per Helm-Chart/K8S oder manuell über Portainer installierbar
    • Semaphore UI: Unterstützt geplante Ausführung und UI für ansible-Playbooks. Manuelle Installation über Portainer