TimesFM – Googles Zeitreihen-Basismodell mit 200 Mio. Parametern und 16k Kontext
(github.com/google-research)- TimesFM ist ein von Google Research entwickeltes großes vortrainiertes Modell für Zeitreihenprognosen und verwendet eine reine Decoder-Architektur
- Die neueste Version 2.5 unterstützt 200 Mio. Parameter, 16k Kontextlänge und Prognosen mit einem Horizont von bis zu 1k
- Sie umfasst verschiedene Funktionen wie kontinuierliche Quantilprognosen, Kovariateneingaben (XReg) und Flax-·PyTorch-Backends
- Das Modell wird über Hugging Face veröffentlicht und kann auch integriert in BigQuery genutzt werden
- Als universelles Basismodell für die Vorhersage von Zeitreihendaten bietet es Skalierbarkeit und Effizienz sowohl für Forschung als auch Praxis
Überblick über TimesFM
- TimesFM (Time Series Foundation Model) ist ein von Google Research entwickeltes vortrainiertes Modell für Zeitreihenprognosen
- Es basiert auf dem ICML-2024-Paper “A decoder-only foundation model for time-series forecasting”
- Modell-Checkpoints werden über die Hugging-Face-Kollektion bereitgestellt und sind außerdem offiziell in BigQuery integriert
- Die offene Version ist kein offizielles Google-Produkt
Modellversionen und wichtige Updates
- Die neueste Version ist TimesFM 2.5; frühere Versionen (1.0, 2.0) werden im Verzeichnis
v1aufbewahrt und können mittimesfm==1.3.0installiert werden -
Update vom 15. September 2025
- Veröffentlichung des Modells TimesFM 2.5
- Parameterzahl auf 200M reduziert (weniger als die Hälfte von zuvor 500M)
- Kontextlänge auf 16k erweitert (gegenüber zuvor 2048)
- Unterstützt kontinuierliche Quantilprognosen (continuous quantile forecast) bis zu einem Horizont von 1k, mit optionalem 30M Quantile Head
- Der
frequency-Indikator wurde entfernt - Neue Forecasting-Flags hinzugefügt
- Inference API aktualisiert
- Geplante künftige Ergänzungen
- Unterstützung für ein Flax-Modell (schnellere Inferenz)
- Wiederherstellung der Kovariaten-Unterstützung
- Ausbau von Docstrings, Dokumentation und Notebooks
-
Update vom 29. Oktober 2025
- Unterstützung für Kovariateneingaben über XReg wurde in TimesFM 2.5 wieder hinzugefügt
Installation
- GitHub-Repository klonen und mit
uveine virtuelle Umgebung erstellen sowie die Pakete installieren- Optionale Backend-Installation für
torch,flax,xreg - Je nach Betriebssystem und Beschleuniger (CPU, GPU, TPU, Apple Silicon) kann PyTorch oder JAX (Flax) gewählt werden
- Optionale Backend-Installation für
Codebeispiel
- Es wird ein Beispiel zum Laden des PyTorch-basierten TimesFM-2.5-Modells (200M Parameter) bereitgestellt
- Verwendung von
timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch") - Über
ForecastConfiglassen sich Einstellungen wie Eingaben normalisieren (normalize_inputs), kontinuierlichen Quantile Head verwenden, Positivität erzwingen (infer_is_positive) und Quantilüberschneidungen korrigieren (fix_quantile_crossing) konfigurieren - Beim Aufruf von
forecast()werden zwei Ergebnisarten zurückgegeben: Point Forecast und Quantile Forecastpoint_forecast.shape: (2, 12)quantile_forecast.shape: (2, 12, 10) — einschließlich Mittelwert sowie 10er- bis 90er-Quantile
- Verwendung von
1 Kommentare
Hacker-News-Kommentare
Das Konzept eines allgemeinen Zeitreihenmodells fühlt sich etwas seltsam an
Es ist fraglich, wie dasselbe Modell gleichzeitig den Preis von Eiern in Italien und die globale Inflation zuverlässig vorhersagen kann
Außerdem scheint es problematisch, dass man den Ergebnissen nur schwer vertrauen kann, wenn die Grundlage der Vorhersage nicht erklärt wird
Nicht-saisonale Ereignisse wie ein Krieg im Nahen Osten, der die Inflation beeinflusst, kann das Modell nicht erfassen
Laut Anhang 8 des Papers werden synthetische Daten mit traditionellen statistischen Modellen wie linearen Trends, ARMA sowie saisonalen Sinus- und Cosinus-Mustern erzeugt und damit trainiert
Letztlich ist es eine Transformer-Architektur und erkennt daher wie ein LLM je nach Eingabekontext problemspezifische Muster
Viele Werbetreibende sagten einfach voraus, indem sie vom aktuellen Wert aus eine Gerade zogen, aber das war ungenau, weil Wochentage und Saisonalität nicht berücksichtigt wurden
Zeitreihenmodelle waren dagegen deutlich genauer, und beim Training auf den Daten der gesamten Kampagnen konnten wir 95%-Konfidenzintervalle liefern
Vorzeichen und Exponent ändern sich langsam, daher kann man diese vorhersagen und den Mantissenanteil mit Benfords Gesetz schätzen
Es wäre gut, dem Titel (2024) hinzuzufügen
Das ist keine aktuelle Nachricht mehr, da es bereits im Google-Research-Blog vorgestellt wurde
Einen passenden Blogpost findet man auf der TimesFM-Seite von GitHub
Im Vergleich zu LLMs wirkt sie viel geringer, daher würde ich gern wissen, ob auch Einzelpersonen oder Uni-Labore das trainieren können
Der Vollständigkeit halber: ähnliche Projekte sind Nixtla und Prophet
Es gab die Frage: „Kann das jemand auf ELI5-Niveau erklären? Und wie viele Datenpunkte kann es lesen?“
Ich frage mich, ob Zeitreihen hier nur als Zahlenmengen ohne Kontext gegeben werden
Es sieht so aus, als würde das Modell die Daten betrachten, dann schätzen, zu welcher Kategorie sie gehören (Aktienkurse, Suchtrends usw.), und darauf basierend eine passende Vorhersage ausgeben
Bei Kategorien, die nicht in den Trainingsdaten vorkamen, dürfte es aber schwach sein
Ich persönlich bevorzuge einfache Modelle wie ARIMA oder theoriegeleitete Modelle
Entscheidend ist, wie gut sich Architektur und Trainingsverfahren verallgemeinern lassen
Das Modell ist schon seit ein paar Monaten öffentlich verfügbar; ich frage mich, ob jemand tatsächlich schon etwas darauf aufgebaut hat
Wenn man historische Zeitreihen zu Sonneneinstrahlung und Wettervorhersagen hat, könnte man dann mithilfe künftiger Wettervorhersagen Strompreise vorhersagen?
Anders gesagt: Kann man mit Daten eines Zeitpunkts X aus einer Zeitreihe den Zeitpunkt X einer anderen Zeitreihe vorhersagen, oder geht es nur um Muster innerhalb einer einzelnen Zeitreihe?
Wenn die Trainingsdaten aber knapp sind, könnte das Modell auch einfach nur das Muster „nach rechts oben“ lernen, was gewisse Grenzen hätte
Ich hatte dieses Projekt verpasst; gibt es dazu vielleicht Wettbewerbe?
Zeitreihen und ML waren immer schwierig, aber ich würde es gern selbst ausprobieren
Ein Kollege hat mit diesem Modell vorhergesagt, wann der CEO etwas in Slack posten würde, und das soll ziemlich lustig gewesen sein
Ich persönlich denke, dass man mit LLM + pandas + eigener Experimentierschleife bessere Ergebnisse erzielen könnte als mit diesem Modell
Es gibt keine festgezogene Grenze, und ich halte es sogar für gut möglich, dass diese Behauptung falsch ist