- Mehrere kostenlose Web-AI-Modelle parallel nutzen, um Problemlösung und Codegenerierung zu trennen, und eine Hybridstrategie einsetzen, die die Stärken jedes Modells ausnutzt
- Mit der AI Code Prep GUI nur den benötigten Code auswählen und aufbereiten, um Leistungsabfall durch unnötigen Kontext zu vermeiden, und der AI nur den Kernkontext bereitstellen
- Planung und Debugging mit leistungsstarken/kostenlosen Modellen (Gemini 2.5 Pro, o3, o4-mini, Claude 4 usw.), Ausführung und Code-Erstellung mit GPT-4.1 und Claude 3.5
- Über OpenAI-Datenfreigabe, GitHub Copilot, Poe.com, OpenRouter usw. kostenlose oder günstige Token beschaffen und so die Kosten minimieren
- Verschiedene Agenten- und CLI-Tools wie Claude Code, Qwen Code, Gemini CLI, Roo Code und Trae IDE je nach Situation kombinieren, um die Arbeitseffizienz zu steigern
Mein Browser-Setup: Das kostenlose AI-Buffet
- Im Browser sind mehrere Tabs mit kostenlosen Versionen verschiedener leistungsstarker AI-Modelle geöffnet
- Statt sich nur auf ein einziges Modell zu verlassen, werden Antworten aus mehreren Perspektiven eingeholt. Die typischerweise genutzte Kombination kostenloser Modelle sieht so aus.
- GLM 4.5: Im Web kostenlos nutzbar und gefühlt auf dem Niveau von Claude 4 oder sogar darüber. Es sind immer 2–3 Tabs geöffnet
- Kimi K2: Ein Modell ähnlich wie Claude oder die Opus-Reihe, kostenlos im Web verfügbar. Meist sind 1–2 Tabs offen; bevor GLM 4.5 erschien, hat es mehrmals täglich schwierige Bugs gelöst
- Qwen3 Coder und neue Modelle: Wird zum Testen verschiedener coding-spezialisierter Modelle verwendet
- OpenAI Playground: Verschiedene Modelle wie GPT-4.5 und o3 können kostenlos genutzt werden. Wenn in den Kontodaten-Einstellungen erlaubt wird, dass „OpenAI Daten für das Modelltraining verwendet“, werden kostenlose Token vergeben
- Google Gemini AI Studio: Gemini-2.5-Pro-/Flash-Modelle können kostenlos und nahezu unbegrenzt genutzt werden. Meist sind 1–3 Tabs geöffnet
- Google Gemini 2.5 Pro: Ein separater Dienst neben AI Studio, mit stärkeren Funktionen für Bilderzeugung und Deep Research. Wird parallel zu AI Studio in Tabs genutzt
- Poe.com: Bietet tägliche kostenlose Credits für Premium-Modelle wie Claude 4 oder o4-mini
- OpenRouter: Ermöglicht die gemischte Nutzung kostenloser und kostenpflichtiger Modelle. Mehrere Modelle sind jeweils in unterschiedlichen Tabs eingerichtet
- ChatGPT: Auch die kostenlose Version ist weiterhin nützlich, daher bleibt mindestens 1 Tab offen
- Perplexity AI: Stark bei rechercheorientierten Fragen
- Deepseek: Bietet die Modelle v3 und r1 kostenlos an. Allerdings auf Kontextlimits achten
- Grok.com: Bietet unbegrenzte kostenlose Nutzung für allgemeine Anwendungen, Deep Research und Bildbearbeitung. Besonders die Deep-Research-Funktion ist ähnlich wie bei Perplexity und nützlich
- Phind: Versucht, Antworten zusammen mit Flowcharts oder Diagrammen bereitzustellen
- lmarena.ai: Bietet Claude Opus 4 und Sonnet 4 kostenlos an. Die kostenlose Nutzung von Opus 4 ist besonders wertvoll
Auch Claude.ai selbst ist kostenlos, kann wegen häufiger Nutzungslimits aber unpraktisch sein, weshalb stattdessen andere Zugänge wie die Cody-Erweiterung oder Copilot genutzt werden.
Hinweis – bei der Nutzung von Grok
Grok bietet kostenlose Rechenleistung und unzensierte Bildgenerierung und kann nützlich sein, wenn die Sicherheitssysteme anderer Modelle stören. Es gibt jedoch Berichte, dass die Betreiber möglicherweise beabsichtigen, mit dem Nationalsozialismus verbundene Ideologien oder Desinformation zu fördern. Insbesondere wurde behauptet, dass das Modell angewiesen worden sei, falsche Informationen über historische Ereignisse wie Völkermorde in Afrika zu liefern. Diese Verzerrungen treten vor allem auf der Plattform X auf; empfohlen wird daher, das Tool nur eingeschränkt für sichere Anwendungsfälle wie Coding zu nutzen oder mögliche Verzerrungen im Hinterkopf zu behalten.
Ein klügerer, günstigerer Workflow: Fokus auf Kontext
- Bei der Nutzung webbasierter AI-Chat-Oberflächen (AI Studio, ChatGPT, OpenRouter usw.) sind Problemlösung und Lösungsvorschläge oft besser als in IDEs oder Agent-Frameworks (Cline, Trae, Copilot usw.)
- Wenn alle Aufgaben mit Tools wie Cursor, Cline oder Roo Code erledigt werden, wird oft eine große Menge an Text an die AI gesendet, die nicht direkt mit dem Problem zusammenhängt, etwa zur Nutzung von MCP-Servern oder zu Dateibearbeitungsabläufen. Das verwirrt die AI und verschlechtert die Leistung
- Dadurch lässt sich der „Verlangsamungseffekt“ durch unnötige Informationen selbst mit den teuersten Modellen nicht überwinden
- Deshalb wird der für die Problemlösung nötige präzise Kontext direkt erstellt, in webbasierte AI-Chats eingefügt und dort für Fragen oder Code-Reviews verwendet
- Sobald eine Lösung vorliegt, wird der Inhalt als Prompt für Agenten wie Cline formuliert und ihnen nur die Dateibearbeitung überlassen
- So lassen sich mit GPT-4.1 (unbegrenzt nutzbar) Problemlösung und Planung günstig durchführen, ohne zwingend Claude-Credits zu verbrauchen
- Für schwierige Problemlösungen wird Claude genutzt, für die Ausführung parallel webbasierte Chat-AI, um die Effizienz zu steigern
-
How AI Code Prep Helps (Example Prompt Structure)
Beispiel-Prompt:
Can you help me figure out why my program does x instead of y?- AI Code Prep GUI scannt den Projektordner rekursiv, durchsucht also auch alle Unterordner und Dateien, und bereitet Code und Fragen in einem für AI gut lesbaren Format auf
- Beispiel für den erzeugten Kontext:
Can you help me figure out why my program does x instead of y? fileName.js: <code> ... Dateiinhalt ... </code> nextFile.py: <code> import example ... weiterer Inhalt ... </code> Can you help me figure out why my program does x instead of y?- Die Frage wird zweimal wiederholt (oben/unten/beidseitig wählbar), damit die AI den Fokus behält
- Unter Windows: Rechtsklick im Projektordner → „AI Code Prep GUI“ starten → Codedateien werden automatisch ausgewählt, unnötige Verzeichnisse wie
node_modulesund.gitwerden automatisch ausgeschlossen - Auch wenn die Auswahl nicht perfekt ist, lässt sie sich über Checkboxen leicht anpassen
- Bei großen Projekten, die das Kontextlimit der AI überschreiten, können gezielt nur die wirklich nötigen Dateien bereitgestellt werden
-
Warum ist dieser Ansatz wichtig?
- Viele Code-Agenten wie Cline, GitHub Copilot, Cursor und Windsurf senden zu viel oder zu wenig Kontext und arbeiten dadurch ineffizient
- Wenn Dateien direkt ausgewählt werden, kann der AI genau die benötigte Information ohne unnötige Daten bereitgestellt werden
- Durch die GUI-basierte Bedienung bietet das Tool besseren Schutz für privaten Code und mehr Komfort als andere Kontext-Erstellungstools, die eine CLI oder öffentliche GitHub-Links verlangen
- Siehe wuu73.org/aicp für aktuelle Funktionsupdates
Modellstrategie: Das richtige Gehirn für den jeweiligen Job wählen
- Viele leistungsstarke KI-Modelle sind kostenlos über Web-Oberflächen verfügbar (Gemini in AI Studio, Grok, Deepseek usw.), daher werden diese bevorzugt genutzt
- Poe.com bietet tägliche kostenlose Credits für Top-Modelle wie Claude und die neue o4-Serie
- Gemini 2.5 Pro (verfügbar über AI Studio) ist hervorragend für Debugging, Planung und allgemeine Aufgaben und wird derzeit als das vielseitigste Modell bewertet
- Bei kniffligen Problemen sollte man o4-mini ausprobieren (nutzbar über OpenRouter oder Poe)
- Bei API-Nutzung deutlich günstiger als frühere Top-Modelle (Claude 3.5/3.7/4)
- Es gab die Erfahrung, dass es schwer lösbare Bugs sofort behoben hat
- Claude 3.7 oder 4 ist über Poe, die API (OpenRouter) oder GitHub Copilot Chat zugänglich
- Es gibt ein gewisses kostenloses Kontingent, aber bei häufiger Nutzung wird es schnell teuer
- 3.7/4 liefert kreative und explosive Ausgaben (im Stil von „Hunter S. Thompson“), aber für echtes Coding kann es effizienter sein, das ruhigere Claude 3.5 einzusetzen
-
So nutzt man kostenlose Tokens im OpenAI Playground
- Wenn man in den Datenfreigabeeinstellungen des OpenAI-Kontos die Freigabe aktiviert, kann man täglich große Mengen kostenloser Tokens nutzen
- OpenAI Playground → Einstellungssymbol oben rechts → im linken Menü Data Controls → Sharing → "Share inputs and outputs with OpenAI" aktivieren; dadurch erhält man folgende Vorteile:
- Bis zu 250.000 Tokens pro Tag: gpt-5, gpt-4.1, gpt-4o, o1, o3
- Bis zu 2,5 Millionen Tokens pro Tag: gpt-4.1-mini, gpt-4.1-nano, gpt-4o-mini, o1-mini, o3-mini, o4-mini, codex-mini-latest
- Mit dieser Einstellung kann man große Mengen an Top-Modellen wie o3 und GPT-4.5 kostenlos nutzen
- Im OpenAI Playground kann man o3 und o4-mini nebeneinander ausführen und so die Stärken und Einsatzbereiche der Modelle vergleichen.
-
Empfohlene Nutzungsstrategie je Modell
- Gemini 2.5 Pro: erste Wahl für Debugging, Planung und allgemeine Coding-Aufgaben
- o4-mini: für knifflige Bugs, sehr kosteneffizient
- Claude 4 / 3.7: optimal für dringende und schwierige Probleme, aber eingeschränkt bei Zugänglichkeit und Kosten
- Claude 3.5: geeignet, um kreative Ergebnisse von 3.7/4 zu verfeinern oder tatsächlichen Code zu schreiben
- o3, GPT-4.5, Qwen3 Coder 480b, GLM 4.5: sehr stark beim Lösen komplexer Probleme und bei Nutzung der kostenlosen Token-Einstellungen in großen Mengen verwendbar
Der Hybrid-Ansatz: Premium-Planung + Budget-Ausführung
- Nach dem Testen verschiedener Modelle wurde eine Hybrid-Strategie entwickelt, die sowohl Qualität als auch Kosteneffizienz maximiert
- Die zentrale Erkenntnis ist, dass jedes Modell in bestimmten Phasen des Entwicklungsprozesses eigene Stärken hat
> „Smart Juice“-Theorie – warum KI dumm wird
> Die Menge an „Intelligenzenergie“, die ein Modell aufnehmen kann, ist begrenzt.
> Wenn man einen knappen und fokussierten Prompt sendet, werden fast 100 % dieser Energie für die Problemlösung verwendet.
> Schickt man jedoch unnötig komplexe Eingaben mit (lange Erklärungen zur Tool-Nutzung, irrelevanten Kontext, mehrere Seiten Code usw.), wird ein erheblicher Teil dieser Energie für deren Verarbeitung verbraucht – und es bleibt weniger „Intelligenz“ für die eigentliche Problemlösung übrig.
>
> Beispiel: IDE-integrierte Agenten wie Cursor oder Cline senden vor der eigentlichen Frage zahlreiche Anweisungen und viel Kontext, wodurch die Konzentration des Modells abnimmt.
> Deshalb erzielt man die besten Ergebnisse, wenn man unnötigen Kontext reduziert und nur das Wesentliche für die Problemlösung sendet.
-
Workflow beim Start eines neuen Projekts
- 1. Plan & Brainstorm
- Mit smarten und kostenlosen Web-Modellen (Gemini 2.5, o4-mini, Claude 3.7/4, o3 usw.) den Ansatz entwerfen, einen Schritt-für-Schritt-Plan erstellen und die benötigten Bibliotheken identifizieren.
- 2. Agent-Prompt generieren
- Eines der obigen Modelle mit Folgendem beauftragen:
"Write a detailed-enough prompt for [Cline](https://cline.bot/), my AI coding agent, to complete the following tasks: [Aufgabenbeschreibung]" - Den erzeugten Prompt anschließend noch einmal mit einer kostenlosen KI, die gut im Umschreiben ist, etwa ChatGPT, überarbeiten.
- Eines der obigen Modelle mit Folgendem beauftragen:
- 3. Mit Cline ausführen
- Den überarbeiteten Prompt in Cline einfügen und mit GPT 4.1 oder Claude 3.5 ausführen (bei komplexen Aufgaben Claude 4).
- Die GPT-4.1-Familie ist gut darauf trainiert, Anweisungen zuverlässig zu befolgen.
- 4. Fallback
- Wenn GPT 4.1 scheitert, über die API zu Claude 3.5 wechseln.
- Deepseek v3 oder R1 ist ebenfalls sehr stark bei der Befolgung von Anweisungen.
- 1. Plan & Brainstorm
-
Kernstrategie
- Die Strategie- und Designphase mit teuren, smarten Modellen durchführen (oder mit dem kostenlos nutzbaren Gemini 2.5 Pro).
- Den Plan zur Prüfung in 2–3 andere kostenlose Modelle kopieren (Deepseek R1, Claude auf Poe usw.):
"Is this good? Can you improve it or find flaws?" - Für die Coding- und Ausführungsphase in Cline stabile und effiziente Modelle verwenden (GPT 4.1, Claude 3.5).
-
Tipps zur Nutzung einzelner Modelle
- o4-mini
- Stark bei High-Level-Implementierungsstrategien wie der Analyse komplexer Codelogik oder der Auswahl von Frameworks und Bibliotheken.
- Ideen-Brainstorming
- Wenn es unlösbar scheint
- Wenn kostenlose/günstige Modelle das Problem nicht lösen, per API zu fortgeschrittenen, kostenpflichtigen Modellen eskalieren.
- o4-mini
Alternative Agents & Setups
- Trae.ai (Bytedance, Hersteller von TikTok)
- VS-Code-kompatible IDE, bietet kostenlose AI-Nutzung: einschließlich Claude 4, Claude 3.7, Claude 3.5 und GPT 4.1.
- Die Leistung des eingebauten Agenten ist schwächer als bei Cline (ehrlich gesagt ist Cline unschlagbar).
- Da es sich um einen VS-Code-Klon handelt, scheint die Installation der Erweiterung Cline möglich zu sein.
- Allerdings langsam wegen Serverüberlastung → dadurch ist der praktische Nutzen der kostenlosen Nutzung gering.
- Wird trotzdem erwähnt, weil der Zugang zu kostenlosen Modellen gegeben ist.
-
Zwei empfohlene Setups
- 1. VS Code + Cline + Copilot
- Copilot-Abo für 10 US-Dollar im Monat → in Cline lassen sich leistungsstarke Modell-APIs günstig nutzen.
- Auch mit dem kostenlosen Tier sind einige Grundfunktionen möglich.
- 2. Trae.ai + Cline
- Test, ob sich der kostenlose Modellzugang von Trae zusammen mit der Nutzung von Cline per API-Key kombinieren lässt.
> Tipp: Es gibt Fälle, in denen der Standard-Agent von Copilot Probleme löst, an denen Cline scheitert, und auch umgekehrt.
> Cline kann durch übermäßig lange Prompts an Leistung verlieren → in manchen Fällen ist Copilot im Vorteil.
- Test, ob sich der kostenlose Modellzugang von Trae zusammen mit der Nutzung von Cline per API-Key kombinieren lässt.
- 1. VS Code + Cline + Copilot
-
Roo Code: ein Klon von Cline
- Roo Code ist fast identisch mit Cline, bietet aber einige andere Funktionen.
- Je nach Projekt oder Coding-Stil kann Roo Code besser geeignet sein.
- Cline selbst ist kostenlos, aber für API-Aufrufe fallen Gebühren an.
- Der wirtschaftlichste Weg: VS Code LM API einrichten + Copilot-Abo für 10 US-Dollar pro Monat → fast unbegrenzte Nutzung leistungsstarker Modelle.
-
Neue CLI-Tools: Claude Code, Qwen Code, Gemini CLI
- Das Interesse an CLI-basierten Coding-Tools ist zuletzt stark gestiegen.
- Claude Code: unterstützt Subagenten → führt nur eine Aufgabe aus und verwendet keine zusätzlichen Tools.
- Damit lässt sich der in diesem Guide beschriebene fokussierte Workflow für „Smart Juice“ nachbilden.
- Entfernt unnötige Agent-Anweisungen (Bloat) und erhält die Effizienz.
- Qwen Code und Gemini CLI haben jeweils ebenfalls ihre eigenen Stärken.
- Auf der Website z.ai gibt es eine Einrichtungsanleitung für die Nutzung von Claude Code mit GLM 4.5.
- Jedes CLI-Tool hat andere Stärken; daher empfiehlt es sich, mit Hilfe von Guides und Community-Tipps zu experimentieren.
TL;DR: Quickstart Guide
- Modelle & Rollen
- Planung & Brainstorming
GLM 4.5, Kimi K2, neueste Qwen3 Coder & 2507-Serie, Gemini 2.5 Pro (AI Studio), o4-mini (OpenRouter), Claude 3.7/4 (Poe), empfohlen werden außerdem 250k kostenlose Tokens pro Tag im OpenAI Playground (o3, GPT-5) - Problemlösung & Debugging
GPT-5 (kostenlose Tokens im Playground), GLM-4.5 (Leistung auf Claude-4-Niveau), Claude 4 (kostenlose tägliche Tokens bei Poe) - Tatsächliches Coding
GPT-4.1 (Cline), bei Fehlschlag als Ersatz Claude 3.5, oder Qwen3 Coder, Instruct, 2507, GLM 4.5, Kimi K2
- Planung & Brainstorming
- Wichtige Tools
- VS Code
- AI Code Prep GUI – scannt und wählt lokal nur die benötigten Dateien aus, optimiert den AI-Kontext
- Cline (VS-Code-Agent) – schrittweise Codeausführung
- Kostenlose Web-Chats – Poe.com, ChatGPT, Grok, Deepseek, Perplexity, OpenAI Playground, AI Studio (Gemini 2.5 Pro), OpenRouter, duck.ai
- Schneller Workflow
- Projektbezogene Dateien mit AI Code Prep GUI bündeln
- Diesen Kontext in das bevorzugte Web-Chat-Modell einfügen, um Planung und Debugging durchzuführen
- Ein Modell mit
"Einen detaillierten Cline-Prompt für diese Aufgabe schreiben"beauftragen und ihn dann z. B. in ChatGPT weiter verfeinern - Den fertigen Prompt in Cline einfügen, das auf GPT-4.1 eingestellt ist, um Code zu erzeugen oder zu ändern
→ bei Fehlschlag zu Claude 3.5 wechseln
- Spar-Hacks
- OpenAI Playground „Datenfreigabe“ aktivieren → 250k kostenlose Tokens pro Tag (GPT-4.5, o3) + 2.5M kostenlose Tokens pro Tag (o4-mini, o3-mini)
- GitHub-Copilot-Abo für 10 US-Dollar pro Monat → eingeschränkte Nutzung von Claude-Modellen in Cline möglich
- OpenRouter Pay-as-you-go → aktuelle Modelle wie o4-mini und Claude 3.7 günstig nutzen
Einige Gedanken
- AI ist ein erstaunlicher Produktivitätsverstärker, aber kein Zauberstab.
- Die eigentliche Magie entsteht, wenn eure Neugier, Beharrlichkeit und Bereitschaft zum Experimentieren mit diesen leistungsstarken Tools zusammenkommen.
- Lasst euch von Bugs oder Problemen nicht entmutigen — jede Herausforderung ist eine Chance, etwas Neues zu lernen.
- Mischt Modelle, probiert mutige Ideen aus und habt keine Angst davor, Dinge kaputtzumachen und neu aufzubauen.
- Die besten Entwickler sind nicht diejenigen, die nie steckenbleiben, sondern diejenigen, die trotz Rückschlägen weiter vorankommen und jedes verfügbare Tool und jede Technik nutzen.
- Nehmt das Chaos an, habt Freude am Prozess und lasst eure Kreativität den Weg weisen!
Neueste Modell-Updates (Aug 2025)
💰 Budgetbewusst: maximalen Gegenwert herausholen
-
GPT 4.5
- Status: Eingestellt
-
o3
- Fähigkeiten: Leistung auf Augenhöhe mit Claude 4, hervorragend bei schwieriger Problemlösung, nahezu genial
- Praxis-Tipp: Mit AI Code Prep GUI lässt sich die gesamte Codebasis zur Analyse einfügen
- Free Tokens: 250k Tokens/Tag, wenn Datenfreigabe unter Data Controls/Sharing settings aktiviert wird
-
o4-mini
- Fähigkeiten: Etwas schwächer als o3, aber trotzdem sehr stark, ein bisschen wie das jüngere Geschwistermodell von o3
- Free Tokens: 2.5M Tokens/Tag bei aktivierter Datenfreigabe
-
Gemini 2.5 Pro
- Nutzung: Kostenlos in AI Studio
- Spezialisiert auf: Komplexes Debugging, Architekturdesign und Planung
-
Deepseek R1 0528
- Fähigkeiten: Sehr intelligentes Modell mit verbesserter Reasoning-Leistung
- Nutzung: Kostenlos über das Web-Interface von Deepseek verfügbar
🚀 Premium: Probleme SOFORT lösen
-
Claude 4 Sonnet
- Fähigkeiten: Löst mit ausreichend Kontext die meisten Probleme auf Anhieb
- Spezialisiert auf: Insgesamt Bestleistung bei Schreiben, Problemlösung und mehr
- Nutzung: Wenn es unbedingt beim ersten Versuch perfekt klappen muss
-
Claude 4 Opus
- Preis: 75 US-Dollar / 1M Tokens
- Leistung: Gilt als noch besser als Sonnet, mit Performance auf dem Niveau einer „magischen Geheimzutat“
- Nutzung: Wenn ultimative Problemlösung gefragt ist
Solide Worker-Modelle
Die folgenden Modelle befolgen Anweisungen gut und erledigen Aufgaben zuverlässig:
-
GPT 4.1
- Als intelligentes Top-Modell für Planung und Problemlösung konzipiert, danach für tatsächliche Code-Änderungen verwendet
- Die Ausgabe kann von überall direkt in Cline eingefügt und ausgeführt werden
-
Claude Sonnet 3.5
- Stark beim Codieren und Bearbeiten
- Etwas langsamer als 4.1, aber sehr stabil
-
Deepseek v3
- Geeignet für das Schreiben und Ändern von Code sowie Agenten-Aufgaben
- Hervorragendes Preis-Leistungs-Verhältnis
-
OpenRouter Free Models
- Auf OpenRouter den Preisfilter auf
$0setzen, um kostenlose Modelle zu finden - Wenn neue Modelle erscheinen, lohnt sich das Experimentieren
- Auf OpenRouter den Preisfilter auf
Kostenloses Claude 4: lmarena.ai und mehr
Claude Opus 4 und Sonnet 4
- Auf lmarena.ai werden Claude Opus 4, Sonnet 4 und mehr kostenlos angeboten
- Tipp: Kostenlose Nutzungsmöglichkeiten für Modelle aus dem Anthropic-Umfeld unbedingt speichern, merken und nutzen
- Einsatz: Wenn alles andere scheitert oder eine Aufgabe sofort perfekt erledigt werden muss, Claude 4 Sonnet oder Opus wählen
NEU!! Krasse neue chinesische Modelle + GPT 5
-
GLM 4.5
- Leistung: Vergleichbar mit Claude 4 Opus oder Sonnet
- Besonderheit: Führt Agent-Regeln und Tool-Nutzung fast perfekt aus
- Einsatz: Besonders stark bei sehr schwierigen Bugfixes und komplexen Aufgaben mit viel Kontext
-
Qwen3 Coder 480B
- Bewertung: Leistungsstark und günstig, daher ein bevorzugtes Modell
- Einsatz: Coding-Aufgaben in Umgebungen mit hoher Leistung bei niedrigen Kosten
-
Qwen3 Instruct & Thinking 2507
- Leistung: Ähnlich stabil und leistungsfähig wie Qwen3 Coder
- Vorteil: Zuverlässig und kosteneffizient
-
Kimi K2 (Moonshot)
- Besonderheit: Wirkt, als sei es auf Anthropic-basierenden oder Claude-ähnlichen synthetischen Daten trainiert
- Bewertung: Sehr starke Leistung, ein häufig genutztes Modell
-
GPT 5
- Einschränkung: Bei der Nutzung benutzerdefinierter Tools (MCP, Cline usw.) weniger stark
- Empfohlene Nutzung:
1. Mit Top-Modellen wie GPT 5 oder GLM 4.5 planen und Probleme lösen
2. Danach einen Prompt schreiben, damit ein einfacheres Agenten-Modell die tatsächliche Bearbeitung und Tool-Nutzung übernimmt - Vergleich:
- GPT 4.1 bietet weiterhin ein hervorragendes Preis-Leistungs-Verhältnis
- Die neuen chinesischen Modelle sind stark bei benutzerdefinierten Tools/Cline
- Fazit: Noch nicht ausreichend getestet, aber jedes Modell hat seine eigenen Stärken; aktuell sind chinesische Modelle bei Preis und Stabilität sehr attraktiv
Aktueller Coding-Workflow (2025)
-
Für neue Projekte:
- 1. Planungsphase:
- Alle Projektdetails (Sprache, Bibliotheken, Server usw.) in einem Notizblock festhalten
- 2. Abstimmung mit mehreren Modellen:
- Dieselben Inhalte in mehrere Modelle einfügen, um eine „Mehrfach-Expertenmeinung“ zu erhalten:
- Gemini 2.5 Pro (kostenlos)
- GPT 4.1
- o4-mini
- Claude 4 (die kostenlosen täglichen Credits von Poe nutzen)
- Dieselben Inhalte in mehrere Modelle einfügen, um eine „Mehrfach-Expertenmeinung“ zu erhalten:
- 3. Verfeinerung:
- Details durch iterative Gespräche mit den Modellen feinjustieren
- 4. Aufgabenerstellung:
- Das Modell bitten, eine Schritt-für-Schritt-Aufgabenliste für den Cline-AI-Coding-Agenten zu erstellen
- 5. Ausführung:
- In Cline (oder Roo Code) GPT 4.1 auf den Modus „act“ setzen und die Aufgaben ausführen
- 1. Planungsphase:
-
Für Problemlösung:
- Analyse komplexer Codebasen: GPT 4.5 + AI Code Prep verwenden
- GPT 4.5 bitten: „Schreib mir einen Prompt, damit Cline diese Aufgabe erledigt“
- Modell je nach Komplexität des Problems auswählen
- Verschiedene Modelle nutzen, um Lösungsansätze aus mehreren Blickwinkeln zu finden
-
Aufgabenlisten & Test Driven Development (demnächst)
Test Driven Development & Aufgabenlisten:- Die AI bitten, detaillierte Aufgabenlisten für die Ausführung durch Cline, Roo Code oder den Trae-Agenten zu schreiben
- Cline oder Roo Code können angewiesen werden, den Fortschritt in einer Markdown-Datei zu protokollieren und erledigte Punkte abzuhaken
- So lässt sich der Fortschritt leicht verfolgen und Auslassungen vermeiden
- Derzeit kann man experimentell das Modell eine Markdown-Checkliste erstellen lassen und Cline oder Roo Code diese Datei aktualisieren lassen
-
Spartipps
- GPT 4.5 & o3: Wenn das Teilen von Trainingsdaten aktiviert wird, gibt es täglich 250.000 Token kostenlos
- Günstige Modelle: Mit o4-mini und 4.1-mini/nano sind täglich 2,5 Millionen Token nutzbar
- GitHub Copilot: Für 10 $ pro Monat können neue Claude-Modelle genutzt werden (mit Geschwindigkeitsbegrenzung)
- Trae IDE: Derzeit kostenlose Nutzung von Claude 4 und GPT 4.1 möglich (kein Abo nötig, scheinbar ohne Limits)
- Poe.com: Bietet kostenlose tägliche Credits für alle Modelle
- Web Interfaces: Kostenlose Web-Chat-Interfaces für Planung und Beratung nutzen
-
Demnächst: Live-Reddit-Daten & Insights
Live Reddit Data Scraping & Daily Insights:- Reddit-Daten sollen in Echtzeit gescraped werden, um täglich aktualisierte Anwendungsfälle für AI-Modelle bereitzustellen
- Einschließlich detaillierter Nutzungsanalysen, Datenvisualisierungen und neuer Einblicke in reale Coding-Workflows und Trends
Noch keine Kommentare.