37 Punkte von ashbyash 2025-08-19 | Noch keine Kommentare. | Auf WhatsApp teilen

> # TL;DR
>
> - Beim Aufbau von LLM-/KI-Agenten gilt:
> - Einfachheit immer als Grundprinzip wählen und Komplexität nur bei Bedarf hinzufügen
> - „Frameworks mit tiefem Verständnis einführen“ sowie „Workflow- und Agent-Muster (Chaining, Routing, Parallelisierung, Evaluator-Optimizer usw.) passend zu realer Umgebung und Zielsetzung kombinieren und testen; außerdem Werkzeuge (APIs) sorgfältig entwerfen, dokumentieren und testen“.

1. Gestaltungsprinzipien erfolgreicher LLM-Agenten

  • Fokus auf Einfachheit: Erfolgreiche Implementierungen neigen stark dazu, statt auf komplexe Frameworks auf einfache und kombinierbare (compoundable) Muster zu setzen.
  • Komplexität nur bei Bedarf hinzufügen: Es ist effizient, die Grundstruktur so einfach wie möglich zu entwerfen und Komplexität nur dann einzuführen, wenn sie wirklich nötig ist.
  • (Original: „Die erfolgreichsten Implementierungen waren nicht von spezialisierten Bibliotheken oder komplexen Frameworks abhängig ... sie wurden auf einfachen, aber modular kombinierbaren Mustern aufgebaut.“)

2. Begriffliche Trennung von Workflows und Agenten

  • Workflows: LLMs und Werkzeuge verarbeiten Aufgaben entlang eines vordefinierten Pfads (Codepfads).
  • Agenten: Das LLM verwaltet Aufgaben und Werkzeugnutzung dynamisch selbstständig (das LLM ist die Instanz, die Entscheidungen trifft).
  • (Original: „Workflows koordinieren LLMs und Werkzeuge entlang vordefinierter Codepfade ... Agenten weisen ihren Ablauf und die Nutzung von Werkzeugen dynamisch selbst an.“)

3. Kriterien für die Einführung von Agenten

  • Einfache Methode → bei Bedarf schrittweise mehr Komplexität: Zunächst mit einfachen LLM-Aufrufen, Suche usw. beginnen und Workflows/Agenten nur schrittweise einführen, wenn das nicht ausreicht.
  • Vorhersagbarkeit/Konsistenz sind wichtig → Workflows sind geeignet
  • Große Flexibilität und modellgesteuerte Entscheidungen sind erforderlich → Agenten sind besser geeignet

4. Prinzipien für die Einführung von Frameworks

  • Es gibt verschiedene Tools/Frameworks wie LangGraph, Bedrock, Rivet und Vellum,
  • empfohlen wird jedoch, zunächst direkt mit der LLM-API zu arbeiten und Frameworks nur bei Bedarf einzuführen.
  • Wenn Frameworks verwendet werden, ist ein tiefes Verständnis ihrer internen Funktionsweise unverzichtbar (durch Abstraktion kann die Problemlösung schwieriger werden).
  • (Original: „Wir empfehlen Entwicklern, zuerst damit zu beginnen, LLM-APIs direkt zu verwenden.“)

5. Praxisnahe Workflows und Beispiele nach Mustern

  • Erweitertes LLM (Augmented LLM): Integrierte Erweiterungsfunktionen wie Suche, Tool-Anbindung und Memory hinzufügen (wichtig sind konkrete Interface-Gestaltung und Dokumentation).
  • Prompt Chaining: Eine Aufgabe in mehrere LLM-Aufrufe (Schritte) aufteilen, um Klarheit und Genauigkeit zu sichern.
    • Beispiel: Marketing-Copy erstellen → übersetzen, Dokumentenentwurf → Review → Ausarbeitung
  • Routing: Eingaben klassifizieren und dann zur passenden Verarbeitung bzw. zum passenden Werkzeug weiterleiten
    • Beispiel: Routing nach Typ von Kundenanfragen, nur schwierige Fragen an ein leistungsstärkeres Modell weitergeben
  • Parallelisierung:
    • Sectioning: Eine Aufgabe in mehrere Subtasks aufteilen und gleichzeitig verarbeiten
    • Voting: Dieselbe Aufgabe mehrfach ausführen und das beste Ergebnis bestimmen
    • Beispiel: Prüfung von Code-Schwachstellen, Automatisierung von LLM-Evaluierungen
  • Orchestrator-Workers: Ein Master-Agent verteilt Unteraufgaben und führt die Ergebnisse zusammen.
    • Beispiel: Bei komplexen Coding-Aufgaben nur benötigte Teile in Echtzeit verteilen, mehrere Datenquellen sammeln und zusammenführen
  • Evaluator-Optimizer: Ein LLM erstellt eine Antwort, ein anderes bewertet diese und gibt Feedback, um sie iterativ zu verbessern
    • Beispiel: Iterative Verbesserung von Übersetzungsergebnissen, Sammlung komplexer Informationen

6. Anwendungsbeispiele aus der Industrie

  • Kundensupport: Chatbot- plus Tool-Integration, Automatisierung von Aufgaben rund um Kundendaten/Bestellungen/Rückerstattungen; der Erfolg lässt sich klar am Kriterium „Problemlösung“ messen. Unternehmensreferenzen mit nutzungsbasierter Preisgestaltung existieren bereits.
  • Coding-Agenten: Iteration und Verbesserung auf Basis automatisierten Test-Feedbacks, belegt etwa durch SWE-bench. Problemraum und Ergebnisqualität lassen sich klar messen. Dennoch ist am Ende immer menschliche Prüfung nötig.

7. Tipps für Tool Prompt Engineering (Anhang 2)

  • Es wird empfohlen, ein Format bereitzustellen, das LLMs bequem verwenden können, sowie ausreichend Tokens zuzuweisen
  • Tool-Beschreibungen (Usage, Beispiele, Edge Cases, Abgrenzungen usw.) klar formulieren
  • Das tatsächliche Nutzungsverhalten des Modells testen ⇒ verbessern (z. B. mit einer Workbench)
  • Nach dem Poka-Yoke-Prinzip so entwerfen, dass selbst kleine Fehler vermieden werden können
  • (Original: „Eine gute Tool-Definition sollte Nutzungsbeispiele, Edge Cases, Anforderungen an das Eingabeformat und klare Grenzen zu anderen Werkzeugen enthalten.“)

8. Kernprinzipien

  • Einfachheit bewahren (Keep it simple)
  • Transparenz im Planungsprozess des Agenten ist unverzichtbar
  • Klare Dokumentation und Tests von Tools und Interfaces
  • Frameworks sind gut für anfängliche Geschwindigkeit, aber Abstraktion minimieren und direkte Kontrolle bevorzugen

Noch keine Kommentare.

Noch keine Kommentare.