9 Punkte von stevenk 2025-08-12 | Noch keine Kommentare. | Auf WhatsApp teilen

Die Illusion des Serverless

  • Serverless hat sich als zentraler Trend in der Cloud-Technologie etabliert.
  • Dieses Paradigma ermöglicht es Entwicklern, sich ohne den Aufwand der Serververwaltung ausschließlich auf die Geschäftslogik zu konzentrieren.
  • Kostenmodell: Man zahlt nur für die tatsächlich genutzten Ressourcen, und der Betriebsaufwand liegt faktisch nahe bei Null.
  • Mehrere Serverless-Datenbanken sind auf den Markt gekommen, wobei etablierte Anbieter wie Elastic, Confluent und Pinecone mit neuen Herausforderern wie Neon, WarpStream, Upstash und Turbopuffer konkurrieren.

Probleme herkömmlicher Serverless-Datenbanken

  • Viele Serverless-Datenbanken sind nicht wirklich serverlos.
  • Die meisten Services basieren auf Cloud-Native-Architekturen, die als innovative Architektur für das Zeitalter der Server-Pools entwickelt wurden.
  • Sie betreiben Server-Cluster und nutzen komplexe Software sowie menschliche Eingriffe, um Lasten vorherzusagen und Kapazitäten zu verwalten.
  • Diese Illusion verursacht den Nutzern tatsächlich spürbare Probleme.

Auswirkungen ineffizienter Architekturen

  • Eine Architektur-Diskrepanz ist kein bloßes technisches Detail, sondern verursacht den Nutzern reale Probleme.
  • Nutzer zahlen für Leerlaufressourcen von Servern, da Server-Cluster ständig für verschiedene Zwecke laufen.
  • Skalierungsproblem: Das Hinzufügen neuer Server zu einem Cluster dauert mehrere Minuten, und dadurch kann ein plötzlicher Lastanstieg nicht sofort abgefangen werden.
  • Eingeschränkte Wahl: Da die Infrastruktur pro Cloud-Region verwaltet werden muss, ist die Anzahl nutzbarer Service-Regionen begrenzt.

Ein nicht nachhaltiges Modell

  • „Serverless“-Datenbanken, die auf Server-Pool-Architekturen basieren, sind langfristig nicht nachhaltig.
  • Anbieter benötigen für den Betrieb von Server-Clustern erhebliche Investitionen, wodurch sich Preise ändern können.
  • Schlanke Nutzer müssen dafür hohe Gebühren bezahlen, um das System zu stützen, und erfolgreiche Nutzer sehen sich mit unerwarteten Preissteigerungen konfrontiert.

Bedarf an serverless-native Architekturen

  • In den frühen Tagen des Cloud Computing waren die meisten „Cloud“-Datenbanken klassische Legacy-Datenbanken.
  • Eine serverless-native Architektur überlässt jede Infrastrukturverwaltung dem Cloud-Anbieter und nutzt statt Server-Clustern zustandslose Funktionen und Serverless-Services.
  • Dieser Ansatz behandelt die Cloud-Infrastruktur wie einen einzelnen großen Supercomputer und ermöglicht damit sofortige Skalierbarkeit sowie ein echtes Pay-per-Request-Modell.
  • Lackmus-Test: Um zu prüfen, ob eine Datenbank wirklich serverless-native ist, sollte sich verifizieren lassen, ob sie ohne Bereitstellung eines Kubernetes-Clusters oder VMs in einem Cloud-Konto bereitgestellt werden kann.

Einführung von LambdaDB

  • LambdaDB ist eine neue Suchmaschine, die serverless-native gebaut wurde.
  • Das System wird als Sammlung von Serverless-Funktionen und -Ressourcen betrieben und trennt Datenbanklogik und Infrastruktur vollständig.
  • Nutzeranfragen laufen über ein Regional Gateway und werden je nach Anfrageart zu Control Functions (Steuerungsfunktionen) oder Data Functions (Datenfunktionen) geroutet.
  • Enterprise-Funktionen: LambdaDB bietet Features wie Point-in-Time Recovery und Zero-Copy-Cloning, ohne dass Infrastrukturmanagement erforderlich ist.

Funktionsweise von LambdaDB

  • LambdaDB-Architektur: Alle Komponenten werden mit serverlosen Cloud-Services aufgebaut.
  • Das Gateway validiert den API-Schlüssel der Nutzeranfrage und routet sie zu Control Functions oder Data Functions.
  • Control Functions verarbeiten CRUD-Operationen und Datenverwaltungsanfragen, während Data Functions die eigentliche Daten-Schreib- und Lesearbeit übernehmen.
  • Schreibpfad: Writer Function schreibt die Anfrage auf, schreibt sie in einen robusten serverlosen Schreibpuffer und antwortet anschließend an den Client zurück.

Das Paradox der Kosteneffizienz

  • LambdaDB reduziert die Rechenkosten im Vergleich zu Server-Pool-Datenbanken.
  • Obwohl der Preis pro Lambda-Einheit höher als bei EC2-Instanzen ist, sinken die Kosten durch die Redundanz, die für Hochverfügbarkeit und Fehlertoleranz erforderlich ist.
  • Verschwendung fixer Kapazität: Die durchschnittliche Rechenlastauslastung von Unternehmen liegt bei nur 10–20 %, weshalb serverloses Rechnen 50–90 % Kostenersparnis liefern kann.

Leistung und Skalierbarkeit

  • Leistung und Skalierbarkeit: LambdaDB hat seine Leistung in einem Experiment nachgewiesen, bei dem Millionen von Vektoren mit 960 Dimensionen hinzugefügt wurden.
  • Schreiblatenz: Bei 10 Upserts pro Sekunde beträgt die Medianlatenz 43 ms; selbst bei 100-fach höherem Traffic bleibt die Latenz vergleichbar stabil.
  • Abfrage-Latenz: Die Abfragelatenz bleibt unter variabler Last stabil, wobei das 99. Perzentil zwischen 172 ms und 210 ms liegt.
  • Optimierungsaufwand: Die Latenz von Query Functions wird kontinuierlich optimiert, und die Serverless-Infrastruktur wird ebenfalls verbessert.

Vorteile für Kunden

  • Kostensenkung: LambdaDB ist mehr als zehnmal günstiger, weil es keine Leerlaufserver gibt.
  • Sofortige und unbegrenzte Skalierbarkeit: LambdaDB kann sich innerhalb von Millisekunden auf tausende parallele Funktionen ausdehnen.
  • Einfacher Start und Skalierung: Starke KI-Anwendungen lassen sich aufbauen, und mit dem Wachstum bleibt die Architektur einfach und kosteneffizient.
  • Enterprise-Funktionen: LambdaDB bietet Funktionen wie Point-in-Time Recovery und Zero-Copy-Cloning, ohne zusätzliche Komplexität oder Kosten.

Zukunftspläne und Vision

  • LambdaDB verarbeitet bereits heute Millionen von Anfragen täglich für Hunderte Millionen Dokumente.
  • Langfristige Pläne: Geplant ist die Unterstützung weiterer Datenmodelle (relationale Daten, Streams, Key-Value, Graphen usw.).

Noch keine Kommentare.

Noch keine Kommentare.