- Ollama Turbo ist eine neue Lösung, mit der große Open-Source-Modelle auf leistungsstarker Data-Center-Hardware schnell ausgeführt werden können (20 USD pro Monat).
- Zusätzlich kann weiterhin die App, CLI, API sowie die JavaScript/Python-Bibliotheken von Ollama genutzt werden, um große Modelle schnell und effizient zu betreiben.
- Aktuell wird im Preview-Modus das OpenAI-öffentliche Modell gpt-oss-20b sowie gpt-oss-120b unterstützt.
- Bei Verwendung des Turbo-Modus wird die Abfragehistorie auf dem Server nicht gespeichert oder protokolliert.
- Die Hardware wird ausschließlich in US-Rechenzentren betrieben, zeit- und tagesbezogene Nutzungsbeschränkungen gelten, und ein verbrauchsbasiertes Abrechnungssystem soll künftig eingeführt werden
Noch keine Kommentare.