- Kostenloser Open-Source-Kurs, mit dem sich die Technik zum direkten Ausführen von AI-Modellen auf Edge-Geräten Schritt für Schritt erlernen lässt
- Ziel ist es, AI-Modelle direkt auf dem Gerät statt in der Cloud auszuführen, um Latenz zu minimieren, den Datenschutz zu verbessern, Kosten zu senken und die Abhängigkeit vom Netzwerk zu verringern
- Lernende können praxisnahe Projekte abschließen, etwa SLM-Deployment, den Aufbau von Multi-Agenten-Systemen, die Implementierung lokaler RAG-Pipelines und Model Routing, und dabei Deployment-Techniken für Windows-, Mobile-, Embedded- und hybride Umgebungen erlernen
- Anhand führender Optimierungstools wie Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX wird praxisorientiert erklärt, wie sich die Performance verbessern lässt (bis zu 85 % Geschwindigkeitssteigerung, 75 % geringere Modellgröße)
- Curriculum (geschätzter Gesamtaufwand: 36–45 Stunden)
- 0. Überblick über EdgeAI und Einführung in die Lernziele (Einführung: 1–2 Stunden)
- 1. Grundkonzepte und Anwendungsfälle von Edge AI (Anfänger: 3–4 Stunden)
- 2. SLM-Modellarchitektur und -Familien (Anfänger: 4–5 Stunden)
- 3. Praktische Übungen zu lokalem und Cloud-Deployment (Mittelstufe: 4–5 Stunden)
- 4. Toolkit zur Modelloptimierung (Llama.cpp usw.) (Mittelstufe: 5–6 Stunden)
- 5. SLMOps und Fine-Tuning (Fortgeschrittene: 5–6 Stunden)
- 6. AI-Agenten und Function Calling (Fortgeschrittene: 4–5 Stunden)
- 7. Cross-Platform-Implementierung (Fortgeschrittene: 3–4 Stunden)
- 8. Beispielprojekt zu Foundry Local (Experten: 8–10 Stunden)
Noch keine Kommentare.