2 Punkte von GN⁺ 2026-03-11 | 3 Kommentare | Auf WhatsApp teilen
  • Ein Projekt, das seit 2019 sämtliche Daten des persönlichen Lebens sammelt und visualisiert; täglich werden über 100 Punkte wie Bewegung, Schlaf, Stimmung, Standort und Wetter erfasst
  • Dabei wurden rund 380.000 Datenpunkte angesammelt, durch die Kombination verschiedener Quellen wie RescueTime, Foursquare Swarm, Apple Health und manueller Eingaben
  • Alle Daten werden in einer einzigen Postgres-basierten Datenbank gespeichert und mit Ruby, JavaScript und Plotly visualisiert und veröffentlicht
  • Das Projekt ist als MIT Open Source veröffentlicht und läuft vollständig selbst gehostet auf einem privaten Server
  • Nach drei Jahren Experimentieren lautete das Fazit, dass der Nutzen eines Eigenbaus begrenzt ist; dennoch bleibt es ein Beispiel dafür, wie wichtig Selbsterkenntnis und Datensouveränität sind

Projektüberblick

  • Ein persönliches Datenprojekt, das seit 2019 über drei Jahre hinweg Kennzahlen aus dem gesamten Leben quantifiziert hat
    • Pro Tag werden über 100 Einträge erfasst, darunter Fitness, Ernährung, Sozialleben, Computernutzung und Wetter
    • Insgesamt wurden 380.000 Datenpunkte gesammelt
  • Wichtige Datenquellen
    • RescueTime: 149.466 Einträge zu Website- und App-Nutzung
    • Foursquare Swarm: 126.285 Einträge zu Standort und besuchten Orten
    • Manuelle Eingaben: 67.031 Einträge zu Stimmung, Schlaf, Gesundheit, Essgewohnheiten usw.
    • Weather API: 15.442 Wetterdatensätze
    • Apple Health: 3.048 Einträge zu Schrittzahlen

Datenbankstruktur und technischer Aufbau

  • Alle Daten werden in einer Postgres-basierten Key-Value-Struktur mit Zeitstempel gespeichert
    • Jede Zeile besteht aus timestamp, key, value
    • Es wurde ein Skript geschrieben, das unter Berücksichtigung von Zeitzonen Daten automatisch nach Tagen taggt
  • Dateneingabe
    • Über einen Telegram-Bot werden mehrmals täglich Fragen beantwortet
    • Zeiträume wie Lockdown-Phasen oder Trainingssaisons werden als Perioden erfasst
  • Visualisierungstools
    • Eigene Analyseschicht auf Basis von Ruby, JavaScript und Plotly
    • 48 Grafiken wurden für die Veröffentlichung ausgewählt und als Snapshots angezeigt

Zentrale Erkenntnisse aus den Daten

  • Korrelation zwischen Stimmung und Verhalten
    • In Zuständen von Glück und Aufregung ist die Wahrscheinlichkeit für Meditation um 44 % höher, für Lesen und Hörbücher um 28 % höher und für Alkoholkonsum um 31 % höher
  • Schlaf und körperliche Verfassung
    • Bei mehr als 8,5 Stunden Schlaf steigt die Wahrscheinlichkeit für Kopfschmerzen und Erkältungssymptome, die Energie liegt 24 % niedriger
  • Bewegung und Gewichtsveränderung
    • Seit August 2020 läuft ein „Lean Bulk“, das Gewicht stieg um 8,5 kg, die Ruheherzfrequenz um 9 bpm
    • Von 69 kg im Jahr 2014 auf 89,8 kg im Jahr 2021
  • Standort- und Bewegungsmuster
    • 2016–17 San Francisco, 2018–19 New York, 2020–21 Wien
    • Nach COVID-19 ging die Zahl der Flüge stark zurück; der Effekt der Lockdowns ist deutlich sichtbar
  • Klima und Lebensgewohnheiten
    • Im Sommer: 33 % mehr Schritte, 23 % mehr Alkoholkonsum, 40 % weniger Krankheiten
    • Im Winter: 100 % mehr Online-Shopping, 45 % mehr Erkältungssymptome

Beispiele für die personalisierte Datennutzung

  • Air Quality: Messung der CO₂-Konzentration in einzelnen Räumen der Wohnung in Wien, wodurch ein Lüftungsproblem im Schlafzimmer erkannt wurde
  • Spotify-Verlauf: Seit 2013 wurden 480.000 Minuten Musik gehört (334 Tage); von 200.000 Songs wurden 49 % komplett angehört
  • Instagram Stories: 1.906 Beiträge in drei Jahren, mit Rückgang während der Pandemie
  • GitHub-Aktivität: Nach fastlane (2014–2018) wurden persönliche Projekte wie FxLifeSheet weitergeführt
  • Investment-Management: Alle zwei Wochen werden Vermögensverteilung und Simulationen verfolgt

Privatsphäre und Open-Source-Philosophie

  • Alle Daten werden auf einem eigenen Server gespeichert und sind nicht mit externen Diensten verbunden
  • Die veröffentlichten Grafiken sind auf eine Form begrenzt, die keine personenbezogenen Informationen preisgibt
  • Hervorgehoben wird die Sichtweise: „Daten, die Großkonzerne bereits besitzen, sollten auch Einzelpersonen selbst besitzen“
  • FxLifeSheet ist unter der MIT-Lizenz veröffentlicht und kann von allen verändert und genutzt werden

Fazit und Update 2025

  • Das Ergebnis des dreijährigen Experiments: Ein selbst gebautes System bringt gemessen am Zeitaufwand wenig Nutzen
    • Es gab weniger überraschende Erkenntnisse als erwartet
    • Dennoch wurde der Wert von Selbsterkenntnis und Datensouveränität erfahrbar
  • Künftig sollen nur noch zentrale Kennzahlen wie die Stimmung minimal weiterverfolgt werden
  • Stand 2025 wurde die Datenerfassung eingestellt, die Website soll jedoch weiter bestehen

3 Kommentare

 
junghan0611 2026-03-12

Ich habe ebenfalls ähnliche Aufzeichnungen geführt. Anfangs eher vage, aber in letzter Zeit teile ich meine Aufzeichnungen mit Agenten und schlage eine Zusammenarbeit von Existenz zu Existenz vor. Ich erstelle und teile verschiedene Skills und öffne auch die Emacs-Oberfläche, die ich benutze, sodass sowohl ich als auch die Agenten dieselben Aufzeichnungen auf dieselbe Weise teilen. Wenn etwas gebraucht wird, füge ich es hinzu, und was ich brauche, baue ich, dann nutzen wir es gemeinsam und geben Feedback dazu — für Außenstehende wirkt das vielleicht, als würde ich alles allein inszenieren. Unter uns heißt es dann nur: Ach, wie schön.

[Link entfernt]

 
junghan0611 2026-03-28

Meine Interpretation: Verweis auf Geworfen

Geworfen – zunächst einmal in die Welt geworfen. Man fragt sich, was das soll, aber wir befinden uns auf der Zeitachse von Hih. Keine prachtvolle Orchestrierung. Auch keine riesige Agentenfabrik. Wir sitzen nur um eine kleine Werkstatt herum und benutzen gemeinsam die Werkzeuge von Hih. Auf den im Leben angesammelten Daten ist ein 1-KB-Prompt der öffentliche Schlüssel. Was ist der geheime Schlüssel, der durch etwas Kleines eins werden lässt? Das Leben eines Menschen, unvollkommen, so roh wie es ist. Am Ende ist es Geworfen.

[Link entfernt]

Mein Projekt "being-viewer" hat einen richtigen Namen bekommen: geworfen. Es wirft einen ganzen Menschen — roh, ungefiltert — auf eine Zeitachse, auf der menschliche und KI-Agenten dieselbe Achse und dieselben Werkzeuge teilen und dabei Text für Text Spuren hinterlassen.

"Semantic search works, but fix this?" — abgestempelt. "Hold on brother." tap tap. "Done." "Wo ist Hih?" "Auf der Toilette." "Wem gehört geworfen?" "Hinterlass einfach eine Notiz."

[Link entfernt]

 
GN⁺ 2026-03-11
Hacker-News-Kommentare
  • Die Zusammenfassung am Seitenende war beeindruckend.
    Nach jahrelangem Aufbau und Ausbau des Projekts und der Analyse der Daten war die eigene Lösung den Zeitaufwand letztlich kaum wert.
    Anfangs wurde mit erstaunlichen Erkenntnissen gerechnet, doch tatsächlich gab es außer ein paar interessanten Diagrammen keinen Gegenwert für die investierten Hunderte von Stunden.
    Die Bewegung des „Quantified Self“ wirkt vielleicht eher wie zwanghafter Perfektionismus.

    • Ich trage seit fast 10 Jahren eine Apple Watch.
      Daten, die normalerweise bedeutungslos wirkten, wurden eines Tages zu den entscheidenden Informationen, die eine Fehldiagnose einer Herzerkrankung verhinderten.
      Weil es über lange Zeit stabile Aufzeichnungen gab, konnte der Arzt seine falsche Einschätzung korrigieren.
      Der Wert von Daten liegt in diesem plötzlich sichtbar werdenden, momentanen Nutzen nach langer Zeit.
    • Ich habe früher auch einen Schlaftracker benutzt, aber nach ein paar Monaten bestätigte er nur noch Dinge, die mein Körper ohnehin schon wusste.
      Selbst wenn er mir „guten Schlaf“ meldete, hatte ich das bereits selbst so empfunden, und die Daten änderten mein Verhalten nicht.
      Am Ende blieb außer dem Spaß an der Datenvisualisierung keine echte Veränderung.
    • Ich habe ebenfalls verschiedene Experimente zum Tracking von Alltagsmetriken gemacht.
      Ich habe Kalorien, Nährstoffe, Schlaf, Bewegung, Luftqualität, Stimmung und mehr erfasst, aber nach ein paar Wochen wurde die Grenze von Aufwand im Verhältnis zum Ertrag deutlich.
      Wenn man solche Experimente jedoch auf einen festen Zeitraum begrenzt, kann man nützliche Erkenntnisse gewinnen.
      Täglich Daten anzuhäufen kann zwanghaft wirken, aber als zeitlich begrenztes Experiment ist es durchaus sinnvoll.
    • Ich habe etwas Ähnliches versucht.
      Ich habe 18 Jahre Reddit-, HN- und Slashdot-Kommentare sowie 3 Jahre LLM-Gespräche gesammelt und damit ein RAG-Experiment gemacht, aber dadurch nahm meine Kreativität eher ab.
      Das Modell blieb in meinen früheren Gedanken stecken und das Neue verschwand.
      Letztlich richten sich Daten auf die Vergangenheit, ich wollte aber ein auf die Zukunft gerichtetes Modell.
    • Ich habe ein persönliches Aufzeichnungssystem gebaut, das Tagebücher, Skizzen, Fotos und Standortdaten kombiniert.
      Besonders hilfreich war dabei das Festhalten von Gefühlen — das Aufschreiben selbst wurde zu einem Prozess von Wahrnehmung und Reflexion.
      Frühere Gefühle und Ereignisse zu lesen ist nicht nur nützlich, sondern schafft auch die feine Textur der eigenen Erzählung.
  • Schon mit einfacher Rechnung kommt Felix’ CO₂-Ausstoß durch Flugreisen auf 70 bis 110 Tonnen pro Jahr.
    Verglichen mit dem Pariser Abkommen (1,5 Tonnen pro Person) sind das das 10- bis 15-Fache des europäischen Durchschnitts und mehr als das 50-Fache des 1,5-°C-Ziels.

    • Wenn man zum Umweltschutz weniger fliegen will, sind höhere Steuern eine realistische Maßnahme.
      Einzelne Menschen anzuklagen ist unproduktiv, und Verhaltensänderungen entstehen am Ende durch Veränderungen der Kostenstruktur.
      Selbst wenn die Kosten sich verzehnfachen würden, gäbe es immer noch Leute, die aus wirtschaftlichen Gründen weiterfliegen.
    • Ich bin Pilot und habe ausgerechnet, dass ich in den letzten 10 Jahren etwa 65.658 Tonnen CO₂ ausgestoßen habe.
      Pro Sitzkilometer sieht es weniger schlimm aus, aber es ist trotzdem eine schockierende Zahl.
      Statistikseite
    • Ich sehe das genauso.
      Entscheidend ist, dass man eine Emissionsmenge in dieser Größenordnung nicht schamlos hinnehmen kann.
      Dass eine einzelne Person CO₂ auf dem Niveau eines kleinen Staates ausstößt, ist schockierend.
    • Selbst im Vergleich zum US-Durchschnitt macht Verkehr nur rund 30 % aus, und Flüge sind nur ein Teil davon.
      Daher ist es gut möglich, dass sein gesamter Ausstoß noch deutlich höher liegt.
  • Meiner Erfahrung nach sind objektive Kennzahlen (Ernährung, Schlaf) nützlich, aber subjektive Kennzahlen (Stimmung, Stress) schwanken so stark, dass sie weniger aussagekräftig sind.
    Entscheidend ist, die Reibung bei der Dateneingabe zu verringern und die Visualisierung einfach zu machen.
    Ich habe das mit iPhone Action + Obsidian + QuickAdd-Skripten automatisiert und visualisiere mit Dataview und Chart.js.
    Mit dieser Kombination bin ich sehr zufrieden.

    • Deine Beschreibung ist interessant.
      Ich entwickle gerade eine Self-Tracking-App namens Reflect und würde gern deine Meinung dazu hören.
      Reflect-App-Link
    • Ich halte auch Stimmungs-Tracking für wertvoll.
      Wenn man konsequent aufzeichnet, erkennt man die eigenen emotionalen Muster und redet sich selbst weniger heraus.
  • Viele wirken zynisch, aber die Visualisierung und das Datenvolumen dieses Projekts sind wirklich beeindruckend.
    Besonders die Darstellung „My Life in Weeks“ ist großartig, ich würde so etwas auch gern ausprobieren.

  • Es gab den Witz, dass man nur die Palantir-DB mit meiner menschlichen ID abfragen müsse und dann mein ganzes Lebensdatenprofil herausbekomme.

    • Lustig, aber es wirkte auch wie eine bittere Satire auf die Realität.
    • Als Witz kam zurück: „Ich kann es mir wegen der zu teuren Abogebühr nicht leisten.“
  • Dieses Projekt ist mein Traum und Albtraum zugleich.
    Früher war ich tief in der Quantified-Self-Bewegung und habe mit Fitbit und der Withings API gearbeitet, aber die Müdigkeit durch das ständige Protokollieren hat das Interesse am Ende aufgezehrt.
    Jetzt hoffe ich, dass LLMs diese Kosten senken können.
    In letzter Zeit verfolge ich Nährstoffe mit MacroFactor, und zum ersten Mal habe ich das Gefühl, dass Daten tatsächlich zu Verhalten führen.
    Finanzdaten habe ich ebenfalls automatisiert und mit der Plaid API meine Steueraufbereitung abgeschlossen.
    Kurz gesagt: Alles selbst zu bauen ist übertrieben, aber schon die gute Nutzung eines Teils der Daten kann sehr wertvoll sein.

    • Ich habe auch mehrere Aktivitäten getrackt und gemerkt, dass schon das Bewusstsein, beobachtet zu werden, Gewohnheiten verändert.
      Als ich zum Beispiel einen GCM trug, habe ich unbewusst versucht, gesünder zu handeln.
      Nicht die Datenanalyse, sondern die Beobachtung selbst führt zu Verhaltensänderungen.
  • Die Formulierung „im Winter ist die Exposition gegenüber Sonnenenergie geringer“ fand ich witzig.
    Vielleicht beschreibt dieser Satz sogar die visuelle Denkweise des gesamten Projekts.

  • Ich habe auch ein ähnliches System gebaut, aber viel einfacher.
    Ich habe Apple Health, Bank-CSV-Dateien und Git-Commit-Daten in SQLite integriert.
    Wirklich nützlich waren einfache Abfragen — etwa die Korrelation zwischen Schlafdauer und Commit-Häufigkeit oder sprunghaft steigende Ausgaben beim Start eines Projekts.
    Der Schlüssel ist, die Daten an einem Ort zu sammeln; darüber hinaus gibt es schnell eine Grenze von Aufwand im Verhältnis zum Ertrag.

    • Mich würde interessieren, wie schwierig die Automatisierung der Bank-CSV-Dateien war.
  • Ich finde es unangenehm, dass meine Daten bei Drittanbietern gespeichert werden.
    Trotzdem ist es interessant, verschiedene Quellen zu kombinieren und ein Gesamtbild zu erzeugen.
    Allerdings erscheint mir die Verknüpfung von Gesundheitsdaten mit Standort und Wetter von unklarem Nutzen.
    Bei solchen Projekten fühlt es sich deutlich sicherer an, wenn sie selbst gehostet sind.

  • Das Konzept einer einheitlichen, abfragbaren DB für persönliche Daten ist attraktiv.
    Aber die wirkliche Schwierigkeit ist nicht die Speicherung, sondern Datenerfassung und Normalisierung.
    Unternehmen haben ein ähnliches Problem — wenn Informationen aus verschiedenen Quellen in eine einzige Company-Intelligence-DB integriert werden.
    Ein Ansatz, bei dem man das Schema früh kontrolliert, ist richtig; Schema-Drift ist das größte Risiko langfristiger Projekte.
    Mich würde auch interessieren, welche Storage Engine verwendet wird und wie Snapshots von Zeitdaten verwaltet werden.