7 Punkte von GN⁺ 28 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • TimesFM ist ein von Google Research entwickeltes großes vortrainiertes Modell für Zeitreihenprognosen und verwendet eine reine Decoder-Architektur
  • Die neueste Version 2.5 unterstützt 200 Mio. Parameter, 16k Kontextlänge und Prognosen mit einem Horizont von bis zu 1k
  • Sie umfasst verschiedene Funktionen wie kontinuierliche Quantilprognosen, Kovariateneingaben (XReg) und Flax-·PyTorch-Backends
  • Das Modell wird über Hugging Face veröffentlicht und kann auch integriert in BigQuery genutzt werden
  • Als universelles Basismodell für die Vorhersage von Zeitreihendaten bietet es Skalierbarkeit und Effizienz sowohl für Forschung als auch Praxis

Überblick über TimesFM

  • TimesFM (Time Series Foundation Model) ist ein von Google Research entwickeltes vortrainiertes Modell für Zeitreihenprognosen
  • Es basiert auf dem ICML-2024-Paper “A decoder-only foundation model for time-series forecasting”
  • Modell-Checkpoints werden über die Hugging-Face-Kollektion bereitgestellt und sind außerdem offiziell in BigQuery integriert
  • Die offene Version ist kein offizielles Google-Produkt

Modellversionen und wichtige Updates

  • Die neueste Version ist TimesFM 2.5; frühere Versionen (1.0, 2.0) werden im Verzeichnis v1 aufbewahrt und können mit timesfm==1.3.0 installiert werden
  • Update vom 15. September 2025

    • Veröffentlichung des Modells TimesFM 2.5
    • Parameterzahl auf 200M reduziert (weniger als die Hälfte von zuvor 500M)
    • Kontextlänge auf 16k erweitert (gegenüber zuvor 2048)
    • Unterstützt kontinuierliche Quantilprognosen (continuous quantile forecast) bis zu einem Horizont von 1k, mit optionalem 30M Quantile Head
    • Der frequency-Indikator wurde entfernt
    • Neue Forecasting-Flags hinzugefügt
    • Inference API aktualisiert
    • Geplante künftige Ergänzungen
      1. Unterstützung für ein Flax-Modell (schnellere Inferenz)
      2. Wiederherstellung der Kovariaten-Unterstützung
      3. Ausbau von Docstrings, Dokumentation und Notebooks
  • Update vom 29. Oktober 2025

    • Unterstützung für Kovariateneingaben über XReg wurde in TimesFM 2.5 wieder hinzugefügt

Installation

  • GitHub-Repository klonen und mit uv eine virtuelle Umgebung erstellen sowie die Pakete installieren
    • Optionale Backend-Installation für torch, flax, xreg
    • Je nach Betriebssystem und Beschleuniger (CPU, GPU, TPU, Apple Silicon) kann PyTorch oder JAX (Flax) gewählt werden

Codebeispiel

  • Es wird ein Beispiel zum Laden des PyTorch-basierten TimesFM-2.5-Modells (200M Parameter) bereitgestellt
    • Verwendung von timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
    • Über ForecastConfig lassen sich Einstellungen wie Eingaben normalisieren (normalize_inputs), kontinuierlichen Quantile Head verwenden, Positivität erzwingen (infer_is_positive) und Quantilüberschneidungen korrigieren (fix_quantile_crossing) konfigurieren
    • Beim Aufruf von forecast() werden zwei Ergebnisarten zurückgegeben: Point Forecast und Quantile Forecast
      • point_forecast.shape: (2, 12)
      • quantile_forecast.shape: (2, 12, 10) — einschließlich Mittelwert sowie 10er- bis 90er-Quantile

1 Kommentare

 
GN⁺ 28 일 전
Hacker-News-Kommentare
  • Das Konzept eines allgemeinen Zeitreihenmodells fühlt sich etwas seltsam an
    Es ist fraglich, wie dasselbe Modell gleichzeitig den Preis von Eiern in Italien und die globale Inflation zuverlässig vorhersagen kann
    Außerdem scheint es problematisch, dass man den Ergebnissen nur schwer vertrauen kann, wenn die Grundlage der Vorhersage nicht erklärt wird

    • Tatsächlich sagen solche Modelle nicht Eierpreise oder Inflation an sich voraus, sondern zerlegen Zeitreihendaten in Trend, Saisonalität und Residuen
      Nicht-saisonale Ereignisse wie ein Krieg im Nahen Osten, der die Inflation beeinflusst, kann das Modell nicht erfassen
    • Soweit ich es verstehe, hilft die Struktur mit synthetischen Trainingsdaten dabei, abstrakte Zeitreihenmuster zu erfassen, die in verschiedenen Domänen gemeinsam auftreten
      Laut Anhang 8 des Papers werden synthetische Daten mit traditionellen statistischen Modellen wie linearen Trends, ARMA sowie saisonalen Sinus- und Cosinus-Mustern erzeugt und damit trainiert
      Letztlich ist es eine Transformer-Architektur und erkennt daher wie ein LLM je nach Eingabekontext problemspezifische Muster
    • Als ich bei Google Ads gearbeitet habe, haben wir Zeitreihenprognosen verwendet, um die Wahrscheinlichkeit vorherzusagen, dass Werbekampagnen ihre Ziele erreichen
      Viele Werbetreibende sagten einfach voraus, indem sie vom aktuellen Wert aus eine Gerade zogen, aber das war ungenau, weil Wochentage und Saisonalität nicht berücksichtigt wurden
      Zeitreihenmodelle waren dagegen deutlich genauer, und beim Training auf den Daten der gesamten Kampagnen konnten wir 95%-Konfidenzintervalle liefern
    • Man könnte auch Benfords Gesetz (Benford’s law) anwenden
      Vorzeichen und Exponent ändern sich langsam, daher kann man diese vorhersagen und den Mantissenanteil mit Benfords Gesetz schätzen
    • Als Ansatz gibt es
      • Zerlegung (decomposition): Finden einer verallgemeinerten Form der Fourier-Transformation, um grundlegende Faktoren zu trennen
      • Memorisierung (memorization): Lernen von Mustern, die in vielen Domänen wiederkehren, etwa Potenzgesetzen
      • Multitask: Nutzung domänenübergreifender Zusammenhänge, etwa zwischen Wetter und Strom
  • Es wäre gut, dem Titel (2024) hinzuzufügen
    Das ist keine aktuelle Nachricht mehr, da es bereits im Google-Research-Blog vorgestellt wurde

    • Aber Ende 2025 gab es ein großes Update
  • Einen passenden Blogpost findet man auf der TimesFM-Seite von GitHub

    • Vermutlich sollte dieser Blogbeitrag von Google Research verlinkt werden
    • Mich würde die gesamte GPU-Trainingszeit interessieren
      Im Vergleich zu LLMs wirkt sie viel geringer, daher würde ich gern wissen, ob auch Einzelpersonen oder Uni-Labore das trainieren können
    • Auf iOS Chrome wird derselbe Inhalt geöffnet wie im eingereichten GitHub-Repository
  • Der Vollständigkeit halber: ähnliche Projekte sind Nixtla und Prophet

  • Es gab die Frage: „Kann das jemand auf ELI5-Niveau erklären? Und wie viele Datenpunkte kann es lesen?“

  • Ich frage mich, ob Zeitreihen hier nur als Zahlenmengen ohne Kontext gegeben werden
    Es sieht so aus, als würde das Modell die Daten betrachten, dann schätzen, zu welcher Kategorie sie gehören (Aktienkurse, Suchtrends usw.), und darauf basierend eine passende Vorhersage ausgeben
    Bei Kategorien, die nicht in den Trainingsdaten vorkamen, dürfte es aber schwach sein
    Ich persönlich bevorzuge einfache Modelle wie ARIMA oder theoriegeleitete Modelle

    • Trotzdem könnte das Modell ähnlich funktionieren wie ein LLM, das das nächste Token in einem langen Token-Stream vorhersagt
      Entscheidend ist, wie gut sich Architektur und Trainingsverfahren verallgemeinern lassen
  • Das Modell ist schon seit ein paar Monaten öffentlich verfügbar; ich frage mich, ob jemand tatsächlich schon etwas darauf aufgebaut hat

  • Wenn man historische Zeitreihen zu Sonneneinstrahlung und Wettervorhersagen hat, könnte man dann mithilfe künftiger Wettervorhersagen Strompreise vorhersagen?
    Anders gesagt: Kann man mit Daten eines Zeitpunkts X aus einer Zeitreihe den Zeitpunkt X einer anderen Zeitreihe vorhersagen, oder geht es nur um Muster innerhalb einer einzelnen Zeitreihe?

    • Im Paper steht, dass der Fokus auf Forecasting liegt
      Wenn die Trainingsdaten aber knapp sind, könnte das Modell auch einfach nur das Muster „nach rechts oben“ lernen, was gewisse Grenzen hätte
  • Ich hatte dieses Projekt verpasst; gibt es dazu vielleicht Wettbewerbe?
    Zeitreihen und ML waren immer schwierig, aber ich würde es gern selbst ausprobieren

  • Ich persönlich denke, dass man mit LLM + pandas + eigener Experimentierschleife bessere Ergebnisse erzielen könnte als mit diesem Modell

    • Dann sollte man es einfach selbst ausprobieren
      Es gibt keine festgezogene Grenze, und ich halte es sogar für gut möglich, dass diese Behauptung falsch ist