- Mithilfe der MLX-Bibliothek direkt auf dem Mac ausführen und das leistungsstarke aktuelle Modell Qwen3-30B-A3B-8bit lokal bereitstellen
- In Localforge per OpenAI-API-Anbindung integrieren und so eine Agent-Loop aufbauen
- Durch die zusätzliche Einrichtung eines ollama-basierten Hilfsmodells (Gemma3) lässt sich die Assistenzrolle des Agenten trennen, wodurch Tools effizienter genutzt werden können
- Nach der Konfiguration des Agenten in der UI von Localforge kann er „LS-Tool ausführen“, Websites erstellen und sogar automatisch ein Snake-Spiel starten
- Der gesamte Ablauf ist kostenlos und kann vollständig autonom lokal betrieben werden – für Mac-Nutzer ein Projekt, das sich direkt ausprobieren lässt
Qwen3 lokal auf dem Mac ausführen
Localforge einrichten
- Offizielle Website: https://localforge.dev
- Nach der Installation ist in den Einstellungen folgende Konfiguration erforderlich:
-
Provider hinzufügen
- a) Ollama-Provider (Hilfsmodell)
- Name: LocalOllama
- Typ: ollama
- Erforderliche Installation: Modell
gemma3:latest (geeignet für einfache Sprachverarbeitung)
-
b) Qwen3-Provider (Hauptmodell)
-
Agent erstellen
- Name: qwen3-agent
- Hauptmodell: qwen3:mlx:30b (Modellname:
mlx-community/Qwen3-30B-A3B-8bit)
- Hilfsmodell: LocalOllama (Modellname:
gemma3:latest)
Fazit
- Auf dem Mac lassen sich große Modelle kostenlos lokal ausführen, um agentenbasiertes automatisches Coding zu ermöglichen
- Durch die Auswahl des Modells oder Tuning des System-Prompts sind noch präzisere Ergebnisse möglich
- Localforge + MLX + Qwen3 ist eine sehr nützliche Kombination für persönliche LLM-Experimente
3 Kommentare
Für 30b lokal ist das doch ziemlich hervorragend, oder? Qwen2.5-Coder war nicht so toll, aber das hier scheint einen Versuch wert zu sein.
Qwen3 – die nächste Generation von Sprachmodellen, die tiefer nachdenken und schneller handeln
Hacker-News-Kommentare
Ich nutze das Modell Qwen3-30B-A3B lokal und bin sehr beeindruckt. Für Leute, die auf GPT-4 gewartet haben, könnte es eine Alternative sein. Auf einem M3 Max erreiche ich 70 tok/s, was es sehr angenehm nutzbar macht
qwen3 auszuführen und einen
ls-Tool-Call zu machen, ist kein "Vibe Coding". Das wirkt eher wie Werbung für LocalForgeIch möchte MLX und MLX-LM ausdrücklich loben. Ich nutze sie derzeit, um Gemma-3-Modelle lokal feinzujustieren, und die von Apple-Entwicklern erstellten Bibliotheken und Tools sind gut aufgebaut
Ich habe Qwen3 mit einem einfachen Prompt zufällig in eine Schleife gebracht
Kennt jemand ein Setup, bei dem lokale LLMs mit MCP zusammenarbeiten können, um Aufgaben kooperativ auszuführen, Kontext zu komprimieren oder mit einem Cloud-Agenten zusammenzuarbeiten?
Ich würde gern ein kurzes Tutorial dazu sehen, wie man lokal einen echten autonomen Agenten startet und einfache Aufgaben ausführen lässt
Ich freue mich, LocalForge entdeckt zu haben. Ich habe eine Frage zu LocalForge: Kann man zwei Agenten kombinieren, sodass ein Bild an einen multimodalen Agenten weitergegeben wird, der HTML/CSS liefert, und ein anderer Agent dann den restlichen Code schreibt?
Sehr beeindruckend. Es muss nicht so gut sein wie kostenpflichtige Token-Modelle
Sieht gut aus. Ich habe nach einer lokal-first KI-unterstützten IDE gesucht, die mit Googles Gemma 3 27B funktioniert
Es wird jetzt wirklich interessant, Modelle lokal auszuführen. Besonders die 30B-A3B-Version scheint eine vielversprechende Richtung zu sein. Mit 16 GB VRAM ist sie noch nicht ganz erreichbar, aber ziemlich nah dran