Zusammenfassung des Releases von LangChain und LangGraph 1.0
(blog.langchain.com)Wir kündigen das Release 1.0 von LangChain und LangGraph an, die ersten großen stabilen Versionen beider Projekte. LangChain bietet High-Level-Abstraktionen für die schnelle Entwicklung von AI-Agenten, während LangGraph als graphbasierte Runtime anpassbare produktionsreife Agenten unterstützt. Dieses Release legt den Schwerpunkt auf Stabilität; bis Version 2.0 sind keine Breaking Changes geplant. Die konsolidierte Dokumentationsseite (https://docs.langchain.com/) wurde neu gestaltet, und die Software wird bereits praktisch bei Großunternehmen wie Uber, LinkedIn und Klarna eingesetzt. Aktuell werden 90 Millionen Downloads pro Monat verzeichnet.
Wichtige Ankündigungen
LangChain 1.0 und LangGraph 1.0 wurden als stabile Versionen veröffentlicht, die das Feedback der Community widerspiegeln. LangChain verfeinert den Agenten-Loop, stärkt die Anpassbarkeit durch Middleware und modernisiert die Modellintegration für aktuelle Content-Typen. LangGraph bietet eine robuste Runtime für Persistenz, Observability und Human-in-the-loop-Steuerung bei lang laufenden Agenten. Unterstützt werden sowohl Python als auch JavaScript, bei garantierter Abwärtskompatibilität.
LangChain 1.0: Neue Funktionen und Verbesserungen
LangChain 1.0 vereinfacht die Entwicklung von Agenten, indem es schwere Abstraktionen und Probleme mit dem Paketumfang beseitigt. Im Fokus stehen die Abstraktion create_agent, standardisierte Content-Blöcke und eine vereinfachte Paketstruktur.
create_agent-Abstraktion
Eine Kernfunktion, mit der sich unabhängig vom Modellanbieter schnell Agenten erstellen lassen, basierend auf LangGraph für eine stabile Ausführung. Der Standard-Agenten-Loop sieht so aus:
- Konfiguration: Modell auswählen, Tools bereitstellen, Prompt definieren.
- Ausführungs-Loop:
- Anfrage an das Modell senden.
- Modellantwort: Bei Tool-Aufrufen werden diese ausgeführt und dem Gespräch hinzugefügt, bei einer finalen Antwort wird das Ergebnis zurückgegeben.
- Schritt 1 wiederholen.
Beispielcode:
from langchain.agents import create_agent
weather_agent = create_agent(
model="openai:gpt-5",
tools=[get_weather],
system_prompt="Help the user by fetching the weather in their city.",
)
result = agent.invoke({"role": "user", "what's the weather in SF?"})
Middleware: Anpassung durch Hinzufügen von Hooks an verschiedenen Punkten des Agenten-Loops (vor/nach Modellaufrufen, bei Tool-Ausführung usw.). Eingebaute Middleware:
- Human-in-the-loop: Unterbrechung bei Tool-Aufrufen für Benutzerfreigabe, Bearbeitung oder Ablehnung; nützlich bei sensiblen Interaktionen wie Zugriff auf externe Systeme oder Transaktionen.
- Zusammenfassung (Summarization): Komprimiert den Nachrichtenverlauf, um Kontextgrenzen zu vermeiden, und bewahrt aktuelle Nachrichten.
- PII-Redaktion: Erkennt und maskiert sensible Daten wie E-Mail-Adressen und Telefonnummern zur Einhaltung von Datenschutzanforderungen.
Benutzerdefinierte Middleware wird ebenfalls unterstützt.
Erzeugung strukturierter Ausgaben: In den Agenten-Loop integriert, um Latenz und Kosten zu reduzieren. Die Ausgabe lässt sich z. B. mit Pydantic-Modellen steuern. Beispiel:
from langchain.agents import create_agent
from langchain.agents.structured_output import ToolStrategy
from pydantic import BaseModel
class WeatherReport(BaseModel):
temperature: float
condition: str
agent = create_agent(
"openai:gpt-4o-mini",
tools=[weather_tool],
response_format=ToolStrategy(WeatherReport),
prompt="Help the user by fetching the weather in their city.",
)
Das frühere create_react_agent wurde in langgraph.prebuilt als deprecated markiert.
Standardisierte Content-Blöcke
Eine in langchain-core 1.0 hochgestufte Funktion, die eine anbieterneutrale Spezifikation für Modellausgaben bereitstellt. Über die Eigenschaft .content_blocks von Nachrichten lassen sich Content-Typen wie Reasoning-Traces, Zitate und Tool-Aufrufe konsistent verarbeiten. Das erleichtert den Modellwechsel zwischen OpenAI, Anthropic und anderen Anbietern und ist mit Streaming, UI und Memory Stores kompatibel.
Vereinfachte Paketstruktur
Es bleiben nur die Kernabstraktionen erhalten; Legacy-Funktionen wurden nach langchain-classic verschoben. Die Unterstützung für Python 3.9 wurde eingestellt (erforderlich ist 3.10+). Installation: uv pip install --upgrade langchain und langchain-classic. Migrationsleitfaden: https://docs.langchain.com/oss/python/releases/langchain-v1.
LangGraph 1.0: Neue Funktionen und Verbesserungen
LangGraph 1.0 ist ein Low-Level-Framework für hochgradig anpassbare Agenten und eignet sich für lang laufende Systeme in Produktionsumgebungen. Es verwendet ein graphbasiertes Ausführungsmodell.
Kernfunktionen
- Persistenter Zustand (Durable State): Der Ausführungszustand von Agenten wird automatisch gespeichert und kann nach einem Serverneustart fortgesetzt werden.
- Integrierte Persistenz: Workflows lassen sich ohne Datenbankcode speichern und wieder aufnehmen; unterstützt werden mehrtägige Prozesse und Hintergrundaufgaben.
- Human-in-the-loop-Muster: APIs zum Unterbrechen der Ausführung für menschliche Prüfung, Anpassung und Freigabe; geeignet für risikoreiche Szenarien.
Das Modul langgraph.prebuilt wurde nach langchain.agents verschoben. Installation: uv pip install --upgrade langgraph. Migration: Kompatibilität bleibt erhalten.
Konzeptbeschreibung: Zustandsbehaftete Agenten, Multi-Agent-Workflows, Integration mit LangChain
Zustandsbehaftete Agenten (Stateful Agents)
Behalten über mehrere Interaktionen hinweg einen persistenten Zustand. Die Runtime von LangGraph bewahrt Gesprächsverlauf, Tool-Ergebnisse und Workflow-Fortschritt. In LangChain 1.0 lässt sich die Kontextgrenze mit Zusammenfassungs-Middleware verwalten. Nützlich für Workflows über mehrere Sitzungen hinweg, z. B. Genehmigungsprozesse über mehrere Tage.
Multi-Agent-Workflows
Mit dem Graphmodell von LangGraph lassen sich Multi-Agent-Systeme aufbauen. Deterministische Knoten (feste Logik) und Agentenkomponenten (LLM-basierte Entscheidungen) können gemischt werden. Die Überwachung erfolgt per Human-in-the-loop. LangChain-Agenten lassen sich als Graphknoten einbetten und erweitern. Geeignet für Geschäftsautomatisierung wie Datenrecherche, Analyse und Freigaben.
Integration mit LangChain
LangChain basiert als High-Level-Abstraktion auf der Runtime von LangGraph und macht Agenten dadurch robust und persistent. Über Graphen kann das System zu komplexeren Architekturen weiterentwickelt werden. Vendor Lock-in wird vermieden. Video zu den Engineering-Details: https://youtu.be/r5Z_gYZb4Ns.
Anwendungsfälle
- LangChain 1.0: Schnelles Prototyping für Standardmuster wie Wetterabfragen oder toolbasierte Assistenten. Mit Middleware lassen sich datenschutzfreundliche Chatbots oder Transaktionsagenten mit menschlicher Freigabe umsetzen.
- LangGraph 1.0: Lang laufende Automatisierung (mehrtägige Freigaben), menschliche Aufsicht bei sensiblen Workflows, hybride Systeme (Agenten + deterministische Logik). Enterprise-Prozesse wie bei Uber oder Klarna.
- Gemeinsame Nutzung: Mit LangChain starten und mit LangGraph zu Multi-Agent-Business-Automatisierung skalieren.
Dokumentation und Ressourcen
Die konsolidierte Dokumentationsseite (https://docs.langchain.com/) enthält intuitive Navigation, Guides, Tutorials und API-Referenzen. Community-Feedback ist im LangChain-Forum möglich (https://forum.langchain.com/). Ein Newsletter kann ebenfalls abonniert werden.
3 Kommentare
Oh, 1.0 ist also erschienen.
Ab 1.0 wird die API hoffentlich etwas stabiler ...
Ich hoffe, dass nicht gleich wieder 2.0 kommt und man schon wieder im Migration Guide wühlen muss.
Mit LangChain selbst bin ich funktional nicht unzufrieden, aber dass dabei ständig die Abwärtskompatibilität gebrochen wird, ist immer beunruhigend und lästig.
Naja … Im AI-Bereich ist es ohnehin oft einfacher, einfach alles von Grund auf neu zu schreiben, also kann ich damit noch leben, aber mein größter Frust ist, dass LLMs die aktuelle Syntax nicht richtig kennen, hahaha. (Mit etwas wie MCP lässt sich das bis zu einem gewissen Grad lösen.)