Claude for Legal – Anthropics Sammlung von AI-Plugins für juristische Arbeit
(github.com/anthropics)- Eine Plugin-Suite, die den gesamten Bereich der juristischen Praxis abdeckt – von internen Handelsverträgen, Datenschutz, Employment, M&A, Litigation, Regulierung, AI Governance, geistigem Eigentum bis hin zur juristischen Ausbildung – und auf drei Arten bereitgestellt werden kann: Claude Cowork, Claude Code und Managed Agents API
- Enthält mehr als 70 Named Agents — darunter Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder und weitere, die sich je nach Workflow mit einem einzigen Slash-Befehl ausführen lassen
- Jedes Plugin lernt über ein Cold-Start-Interview die Playbooks, Eskalationsregeln und den Hausstil des Teams und speichert diese im Praxisprofil
CLAUDE.md, sodass alle Skills maßgeschneiderte Ergebnisse erzeugen - Bietet mehr als 20 MCP-Konnektoren: Integration mit allgemeinen Tools wie Slack, Google Drive und Box sowie mit juristisch spezialisierten Systemen wie Ironclad, DocuSign, iManage, Everlaw, CourtListener und Trellis
- Mit dem CoCounsel Legal-Plugin von Thomson Reuters ist eine Westlaw-Deep-Research-Integration möglich, die vollständig zitierte Berichte zu Rechtsprechung, Gesetzen und Vorschriften für bis zu drei US-Jurisdiktionen erzeugen kann
- Zitate über Research-Konnektoren werden mit Source-Tags versehen, während Zitate, die nur auf Modellwissen beruhen, mit dem
[verify]-Flag gekennzeichnet werden, um die Vertrauenswürdigkeit der Zitate explizit zu unterscheiden - Vertragsbezogene Skills arbeiten in der Claude-for-Word-Seitenleiste im Tracked-Changes-Modus und bewahren Nummerierung, Definitionsklauseln, Querverweise und Stil. Für Excel bestimmte Skills geben Ergebnisse als Multi-Sheet-
.xlsx-Arbeitsmappen aus - legal-builder-hub stellt die Vertrauensebene für Community-Skills bereit — mit Scans auf versteckte Inhalte, Injection-Erkennung, Allowlist, License Gate, Freshness Gate, erneutem Scan bei Updates und Audit-Logs für Installationen
- Enthält Bildungs-Plugins wie Socratic Drill für Jurastudierende (Lernmodus ohne Preisgabe der richtigen Antworten), IRAC-Bewertung, Vorbereitung auf das Bar Exam, Flashcards und Klausurprognosen sowie das Plugin legal-clinic (entwickelt nach ABA Formal Op. 512)
- Alle Ausgaben sind Entwürfe zur anwaltlichen Prüfung und geben nicht die Rechtsauffassung von Anthropic wieder. Das gesamte Paket besteht aus Markdown und JSON, sodass kein Build-Schritt erforderlich ist
- Apache-2.0-Lizenz
1 Kommentare
Hacker-News-Kommentare
Aus Sicht von Anwälten ist das interessant, aber es gibt zwei Hürden, bei denen ich nicht weiß, wie Anthropic sie überwinden will
(1) Wenn ein Nicht-Anwalt solche Skills/Konnektoren nutzt, um Rechtsrat zu bekommen, ist diese Unterhaltung nicht durch das Anwaltsgeheimnis geschützt. Das wird ganz sicher irgendwann für jemanden zu einem großen Problem werden
(2) Wenn ein Anwalt vertrauliche Mandanteninformationen eingibt und in den Einstellungen vergisst, „Help improve Claude“ auszuschalten, hat er womöglich berufliche Fahrlässigkeit begangen. Dabei sind vertrauliche Informationen nicht nur Sozialversicherungs- oder Kontonummern, sondern „sämtliche Informationen im Zusammenhang mit der Vertretung des Mandanten“
https://www.americanbar.org/content/dam/aba/administrative/p...
Richter Rakoff vom Southern District of New York befasste sich mit einer „bundesweit erstmaligen Rechtsfrage“ und entschied, dass schriftliche Gespräche zwischen einem Strafangeklagten und der generativen AI-Plattform Claude weder durch das Anwaltsgeheimnis noch durch die Work-Product-Doktrin geschützt sind
Das ist deutlich komplexer als diese eine Zeile, aber zumindest ist man auf der sicheren Seite, wenn man annimmt, dass eine rechtliche Verteidigungsstrategie oder Teile davon, die man in eine AI eingibt, offengelegt werden könnten
Ich frage mich, ob es bei der Nutzung solcher Drittanbieter-Tools für sensible Rechtsfragen operative Sicherheitsverfahren gibt, mit denen man ethisch handeln und zugleich sicher sein kann, dass die Interaktion nicht in offenzulegenden Unterlagen landet
Der aktuelle Stand ist hier gut zusammengefasst: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
Allerdings ist nichts davon ein bindender Präzedenzfall, daher wird sich dieses Feld mit der Zeit weiter verändern
Wer haftet eigentlich, wenn das hier etwas Falsches tut? Anthropic Inc wird das sicher nicht für dich übernehmen. Es gibt keine Errors-and-Omissions-Versicherung, keine rechtliche Haftung, kein Anwaltsgeheimnis und keine Anwaltskammer, die Disziplinarmaßnahmen verhängen könnte
Realistisch betrachtet ist das eher eine fortgeschrittene Version eines „Testament-Kits“, das PDFs ausspuckt. Solange sich grundlegend nichts ändert, wird das Rechtssystem so etwas nicht wohlwollend betrachten
Es wäre schön, wenn man in einer streitfreudigen Kultur nicht Tausende Dollar für die eigene Verteidigung ausgeben müsste, aber ich würde mein Leben und Wohlergehen nicht darauf setzen
Bei AI im juristischen Bereich bin ich vorsichtig optimistisch. Ein großer Teil juristischer Arbeit ist repetitive Arbeit beim Durchforsten von Dokumentenbergen, und allein dafür, was LLMs schon heute gut können, gibt es bereits Einsatzpotenzial. Für juristische Arbeit scheint mir jedoch ein agentischer Ansatz wie bei Claude passend
Das Kontextfenster von LLMs ist zu klein, um selbst die Dokumente eines kleinen Falls vollständig aufzunehmen. Deshalb muss man eher so arbeiten wie Programmierer: auf einer Dateistruktur aufsetzen und den Zustand in
.md-Dateien speichern. Dieser Ansatz ist im Programmierbereich schon weit entwickelt, aber Legal-AI-Unternehmen haben bisher kaum an der Oberfläche gekratzt. Produkte, die ein LLM hinter irgendeinem Interface verstecken, sind ehrlich gesagt auch nicht besonders gutLeider glaube ich, dass AI dem Einzelnen bei einer kostengünstigen Prozessverteidigung kaum hilft. Ein großer Teil dieser Arbeit besteht im Umgang mit Menschen: herauszufinden, was passiert ist, mit den Beteiligten zu sprechen, widersprüchliche Darstellungen zu ordnen, möglichst einen Vergleich zu erzielen oder andernfalls vor Gericht einen Richter zu überzeugen. AI scheint eher dafür geeignet, großen Unternehmen in großen Verfahren zu helfen, ihre Rechtskosten zu kontrollieren, während beide Seiten sich noch mehr Papier zuschicken
AI-Chatverläufe sind nicht wie das Anwaltsgeheimnis geschützt und können vor Gericht als Beweismittel gegen dich verwendet werden. Wenn du mit einem Anwalt sprichst und dieser Anwalt AI verwendet, ist diese Unterhaltung privilegiert
Es sieht so aus, als hätten sie Lexis, wahrscheinlich eines der wichtigsten Tools für Anwälte, weggelassen: https://github.com/anthropics/claude-for-legal/pull/5
Deshalb halte ich einen erheblichen Teil der Bewertungen aktueller AI-Startups auf der Anwendungsebene für ziemlich wacklig. Sobald große AI-Unternehmen wie Anthropic beginnen, in vertikale Produkte zu expandieren, sieht die Rechnung anders aus
Ich frage mich allerdings, wie ernst sie das langfristig weiterverfolgen. Ein verbleibender Vorteil mancher Startups könnte die Angst sein, dass Produktpakete von OpenAI/Anthropic wie Google-Produkte nach 1–2 Jahren direkt auf dem Friedhof landen
Die Formulierung „die juristischen Workflows, die wir am häufigsten sehen“ irritiert mich etwas. Heißt das, dies basiert auf Kundensitzungen? Haben sie das Recht, aus Kundendaten eine Wissensbasis über alle Berufe, Themen und Workflows der Welt zu bauen?
Sie glauben, dass sie dieses Recht haben, und sagen das auch ziemlich offen
Es hat sogar einen Namen: Clio. Laut der Seite ist es ein „System für datenschutzwahrende Einblicke in die tatsächliche AI-Nutzung“
Die entsprechende Seite ist hier: https://www.anthropic.com/research/clio
Irgendwann werden Anwälte, Notare und Richter so etwas wohl verwenden. Dann könnten Anwälte zu einer Art SEO-/Copywriting-Spezialisten werden, die das LLM der Gegenseite besser austricksen
Als jemand, der sich vor einem Tribunal früher selbst vertreten hat, finde ich das eindeutig interessant
Allerdings darf man in manchen Jurisdiktionen wie dem Vereinigten Königreich ohne SRA-Zulassung oder FCA-Regulierung nicht einfach jemandem Rechtsrat erteilen. Damit könnte Anthropic nach britischem Recht faktisch zu einem Claims-Management-Unternehmen werden
Nach article 89I der Financial Services and Markets Act 2000 (Regulated Activities) Order 2001 ist es eine definierte regulierte Tätigkeit, einen Anspruchsteller oder potenziellen Anspruchsteller in Bezug auf Ansprüche im Zusammenhang mit Finanzdienstleistungen oder Finanzprodukten zu beraten, einen Anspruch zu untersuchen oder einen Anspruchsteller zu vertreten
https://www.fca.org.uk/freedom-information/dual-regulation-c...
Mittlerweile sollten AI-Unternehmen gelernt haben, dass der Rechtsbereich nichts ist, worin man leichtfertig herumstochern sollte. Der bisherige Verlauf ist Beleg genug. Aber diese speziellen AI-Optimisten scheinen lernresistent zu sein
Stattdessen wollen sie Kanzleien AI-Dienste bereitstellen, damit diese sie in ihrer eigenen Rechtsberatung verwenden. Ob gut oder schlecht, das passiert bereits, und fast alle großen Wirtschaftskanzleien nutzen AI in irgendeiner Form. Auch die Mandanten verlangen es. Probleme durch den Einsatz von AI im Rechtsbereich wird es weiterhin geben, aber die Verantwortung wird bei den Anwälten liegen
Dass der GitHub-Organisationsname „Anthropics“ lautet, wirkt ziemlich irreführend