1 Punkte von GN⁺ 3 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Eine Plugin-Suite, die den gesamten Bereich der juristischen Praxis abdeckt – von internen Handelsverträgen, Datenschutz, Employment, M&A, Litigation, Regulierung, AI Governance, geistigem Eigentum bis hin zur juristischen Ausbildung – und auf drei Arten bereitgestellt werden kann: Claude Cowork, Claude Code und Managed Agents API
  • Enthält mehr als 70 Named Agents — darunter Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder und weitere, die sich je nach Workflow mit einem einzigen Slash-Befehl ausführen lassen
  • Jedes Plugin lernt über ein Cold-Start-Interview die Playbooks, Eskalationsregeln und den Hausstil des Teams und speichert diese im Praxisprofil CLAUDE.md, sodass alle Skills maßgeschneiderte Ergebnisse erzeugen
  • Bietet mehr als 20 MCP-Konnektoren: Integration mit allgemeinen Tools wie Slack, Google Drive und Box sowie mit juristisch spezialisierten Systemen wie Ironclad, DocuSign, iManage, Everlaw, CourtListener und Trellis
  • Mit dem CoCounsel Legal-Plugin von Thomson Reuters ist eine Westlaw-Deep-Research-Integration möglich, die vollständig zitierte Berichte zu Rechtsprechung, Gesetzen und Vorschriften für bis zu drei US-Jurisdiktionen erzeugen kann
  • Zitate über Research-Konnektoren werden mit Source-Tags versehen, während Zitate, die nur auf Modellwissen beruhen, mit dem [verify]-Flag gekennzeichnet werden, um die Vertrauenswürdigkeit der Zitate explizit zu unterscheiden
  • Vertragsbezogene Skills arbeiten in der Claude-for-Word-Seitenleiste im Tracked-Changes-Modus und bewahren Nummerierung, Definitionsklauseln, Querverweise und Stil. Für Excel bestimmte Skills geben Ergebnisse als Multi-Sheet-.xlsx-Arbeitsmappen aus
  • legal-builder-hub stellt die Vertrauensebene für Community-Skills bereit — mit Scans auf versteckte Inhalte, Injection-Erkennung, Allowlist, License Gate, Freshness Gate, erneutem Scan bei Updates und Audit-Logs für Installationen
  • Enthält Bildungs-Plugins wie Socratic Drill für Jurastudierende (Lernmodus ohne Preisgabe der richtigen Antworten), IRAC-Bewertung, Vorbereitung auf das Bar Exam, Flashcards und Klausurprognosen sowie das Plugin legal-clinic (entwickelt nach ABA Formal Op. 512)
  • Alle Ausgaben sind Entwürfe zur anwaltlichen Prüfung und geben nicht die Rechtsauffassung von Anthropic wieder. Das gesamte Paket besteht aus Markdown und JSON, sodass kein Build-Schritt erforderlich ist
  • Apache-2.0-Lizenz

1 Kommentare

 
GN⁺ 3 시간 전
Hacker-News-Kommentare
  • Aus Sicht von Anwälten ist das interessant, aber es gibt zwei Hürden, bei denen ich nicht weiß, wie Anthropic sie überwinden will
    (1) Wenn ein Nicht-Anwalt solche Skills/Konnektoren nutzt, um Rechtsrat zu bekommen, ist diese Unterhaltung nicht durch das Anwaltsgeheimnis geschützt. Das wird ganz sicher irgendwann für jemanden zu einem großen Problem werden
    (2) Wenn ein Anwalt vertrauliche Mandanteninformationen eingibt und in den Einstellungen vergisst, „Help improve Claude“ auszuschalten, hat er womöglich berufliche Fahrlässigkeit begangen. Dabei sind vertrauliche Informationen nicht nur Sozialversicherungs- oder Kontonummern, sondern „sämtliche Informationen im Zusammenhang mit der Vertretung des Mandanten“
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Als Beleg für Punkt 1 gibt es https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      Richter Rakoff vom Southern District of New York befasste sich mit einer „bundesweit erstmaligen Rechtsfrage“ und entschied, dass schriftliche Gespräche zwischen einem Strafangeklagten und der generativen AI-Plattform Claude weder durch das Anwaltsgeheimnis noch durch die Work-Product-Doktrin geschützt sind
      Das ist deutlich komplexer als diese eine Zeile, aber zumindest ist man auf der sicheren Seite, wenn man annimmt, dass eine rechtliche Verteidigungsstrategie oder Teile davon, die man in eine AI eingibt, offengelegt werden könnten
    • Punkt 1 fühlt sich wirklich seltsam an. Wenn ich einen Anwalt bezahle und dieser dieselbe Anfrage in so ein Tool eingibt, ist das durch das Anwaltsgeheimnis geschützt; wenn ich aber dieselbe Anfrage selbst stelle, um meine Verteidigung vorzubereiten, kann sie per Vorladung oder im Rahmen der Beweisaufnahme angefordert werden
      Ich frage mich, ob es bei der Nutzung solcher Drittanbieter-Tools für sensible Rechtsfragen operative Sicherheitsverfahren gibt, mit denen man ethisch handeln und zugleich sicher sein kann, dass die Interaktion nicht in offenzulegenden Unterlagen landet
    • Punkt 1 ist etwas komplizierter. Gespräche mit einer AI können unter Umständen durch die Work-Product-Doktrin geschützt sein, aber nur bei pro se-Parteien, die ihren Prozess selbst führen, und dann auch strikt begrenzt auf das, was unter die mentalen Eindrücke und Meinungsbildung eines Anwalts als Work Product fallen würde. In diesem Fall wird dieser Schutz auf die pro se-Partei erweitert. Siehe Warner v. Gilbarco, Inc.
      Der aktuelle Stand ist hier gut zusammengefasst: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      Allerdings ist nichts davon ein bindender Präzedenzfall, daher wird sich dieses Feld mit der Zeit weiter verändern
    • Bei Punkt 2 dürfte es im Wesentlichen darauf hinauslaufen, dies über Organisations-/Business-Konten mit deaktivierter Datenspeicherung zu nutzen
    • Lässt sich Punkt 1 nicht mit einem einzigen Gesetzessatz lösen? So etwas wie: „Rechtsanfragen an ein LLM unterliegen in gleicher Weise dem Anwaltsgeheimnis“
  • Wer haftet eigentlich, wenn das hier etwas Falsches tut? Anthropic Inc wird das sicher nicht für dich übernehmen. Es gibt keine Errors-and-Omissions-Versicherung, keine rechtliche Haftung, kein Anwaltsgeheimnis und keine Anwaltskammer, die Disziplinarmaßnahmen verhängen könnte
    Realistisch betrachtet ist das eher eine fortgeschrittene Version eines „Testament-Kits“, das PDFs ausspuckt. Solange sich grundlegend nichts ändert, wird das Rechtssystem so etwas nicht wohlwollend betrachten
    Es wäre schön, wenn man in einer streitfreudigen Kultur nicht Tausende Dollar für die eigene Verteidigung ausgeben müsste, aber ich würde mein Leben und Wohlergehen nicht darauf setzen

    • Im Repository gibt es einen starken Haftungsausschluss, wonach sie keinerlei Verantwortung übernehmen. Es wirkt eher wie ein Marketing-Anwendungsfall als wie etwas wirklich Nützliches
    • Die Verantwortung liegt beim Nutzer. Es macht keinen Unterschied, ob der Nutzer Informationen von einem LLM, einer Maschine oder einem Webbeitrag bezieht; verantwortlich ist am Ende die Person, die das Dokument einreicht
    • Die Verantwortung tragen die Anwälte. Der Einsatz von AI ist keine binäre Entscheidung. Anwälte können AI nutzen, um effizienter zu arbeiten, und Mandanten können AI nutzen, um ihre Lage oder die Erklärungen ihres Anwalts besser zu verstehen oder um zu lernen, welche Fragen sie stellen sollten. Oder man kann sie in risikoarmen Situationen einsetzen, in denen ohnehin niemand Anwaltskosten zahlen würde
      Bei AI im juristischen Bereich bin ich vorsichtig optimistisch. Ein großer Teil juristischer Arbeit ist repetitive Arbeit beim Durchforsten von Dokumentenbergen, und allein dafür, was LLMs schon heute gut können, gibt es bereits Einsatzpotenzial. Für juristische Arbeit scheint mir jedoch ein agentischer Ansatz wie bei Claude passend
      Das Kontextfenster von LLMs ist zu klein, um selbst die Dokumente eines kleinen Falls vollständig aufzunehmen. Deshalb muss man eher so arbeiten wie Programmierer: auf einer Dateistruktur aufsetzen und den Zustand in .md-Dateien speichern. Dieser Ansatz ist im Programmierbereich schon weit entwickelt, aber Legal-AI-Unternehmen haben bisher kaum an der Oberfläche gekratzt. Produkte, die ein LLM hinter irgendeinem Interface verstecken, sind ehrlich gesagt auch nicht besonders gut
      Leider glaube ich, dass AI dem Einzelnen bei einer kostengünstigen Prozessverteidigung kaum hilft. Ein großer Teil dieser Arbeit besteht im Umgang mit Menschen: herauszufinden, was passiert ist, mit den Beteiligten zu sprechen, widersprüchliche Darstellungen zu ordnen, möglichst einen Vergleich zu erzielen oder andernfalls vor Gericht einen Richter zu überzeugen. AI scheint eher dafür geeignet, großen Unternehmen in großen Verfahren zu helfen, ihre Rechtskosten zu kontrollieren, während beide Seiten sich noch mehr Papier zuschicken
    • Auch die Abschaffung des Jaywalking-Verbots wurde vom Rechtssystem anfangs nicht positiv gesehen. In den USA hat das etwa 20 Jahre gedauert
    • Dem Original zufolge trägt der Anwalt, der das Plug-in benutzt, also dieser Anwalt selbst und nicht das Plug-in oder Anthropic, die Verantwortung für die in seinem Work Product eingenommene Rechtsposition
  • AI-Chatverläufe sind nicht wie das Anwaltsgeheimnis geschützt und können vor Gericht als Beweismittel gegen dich verwendet werden. Wenn du mit einem Anwalt sprichst und dieser Anwalt AI verwendet, ist diese Unterhaltung privilegiert

    • Nein. Wenn du mit einem Anwalt sprichst und dieser angemessene Vorsichtsmaßnahmen trifft, um die Integrität der vertraulichen Anwalt-Mandant-Beziehung zu wahren, bleibt das Privileg erhalten. Andernfalls nicht
  • Es sieht so aus, als hätten sie Lexis, wahrscheinlich eines der wichtigsten Tools für Anwälte, weggelassen: https://github.com/anthropics/claude-for-legal/pull/5

    • „Auf Bitte eines Partners“ – ich frage mich, ob Thomson Reuters (Westlaw) sich derart bedroht fühlte, dass man sich darüber so sehr beschweren musste. Mich würde eher interessieren, wie gut diese Skills zusammen mit Lexis funktionieren würden
    • Kann man nicht einfach die Version der Codebasis vor dieser Änderung verwenden?
  • Deshalb halte ich einen erheblichen Teil der Bewertungen aktueller AI-Startups auf der Anwendungsebene für ziemlich wacklig. Sobald große AI-Unternehmen wie Anthropic beginnen, in vertikale Produkte zu expandieren, sieht die Rechnung anders aus
    Ich frage mich allerdings, wie ernst sie das langfristig weiterverfolgen. Ein verbleibender Vorteil mancher Startups könnte die Angst sein, dass Produktpakete von OpenAI/Anthropic wie Google-Produkte nach 1–2 Jahren direkt auf dem Friedhof landen

    • Das ist ähnlich wie zu fragen, was passiert, wenn AWS damit anfängt. Die Infrastruktur haben sie ohnehin schon. Ein LLM ist nur ein Zahnrad, und auf der Anwendungsebene gibt es noch viel, was diese Unternehmen überhaupt nicht tun
    • Sämtliche Bewertungen im AI-Bereich sind instabil. Es gibt faktisch kein Unternehmen mit einem wirklich soliden Geschäftsplan, nur Stimmung – und trotzdem fließt weiter Geld hinein
  • Die Formulierung „die juristischen Workflows, die wir am häufigsten sehen“ irritiert mich etwas. Heißt das, dies basiert auf Kundensitzungen? Haben sie das Recht, aus Kundendaten eine Wissensbasis über alle Berufe, Themen und Workflows der Welt zu bauen?

    • Ja, davon gehe ich aus. Sie trainieren AI mit den Daten deines Unternehmens, damit sie später dein Geschäft ersetzen können. Wenn du das nicht glaubst, dann nenne etwas, womit sie nicht trainiert haben
    • Ja, es basiert auf Kundensitzungen
      Sie glauben, dass sie dieses Recht haben, und sagen das auch ziemlich offen
      Es hat sogar einen Namen: Clio. Laut der Seite ist es ein „System für datenschutzwahrende Einblicke in die tatsächliche AI-Nutzung“
      Die entsprechende Seite ist hier: https://www.anthropic.com/research/clio
    • Es ist auch die Frage, nach welchem Land man das beurteilt. Dir ist klar, dass die Gesetze von Land zu Land unterschiedlich sind?
    • „Rechtlich und moralisch dazu berechtigt sein“ und „so handeln, als sei man dazu berechtigt“ sind nicht dasselbe. Das ist die große Frage
  • Irgendwann werden Anwälte, Notare und Richter so etwas wohl verwenden. Dann könnten Anwälte zu einer Art SEO-/Copywriting-Spezialisten werden, die das LLM der Gegenseite besser austricksen

    • Wir sind längst weit über diesen Punkt hinaus. Man muss sich nur ansehen, wie viele Fälle es weltweit schon gab, in denen Anwälte Dokumente mit halluzinierten Präzedenzfällen bei Gerichten eingereicht haben
    • Das Recht ist am Ende irgendwo niedergeschrieben. Ein Mensch kann das tatsächliche Recht nachlesen und beurteilen, ob die AI Unsinn redet
  • Als jemand, der sich vor einem Tribunal früher selbst vertreten hat, finde ich das eindeutig interessant
    Allerdings darf man in manchen Jurisdiktionen wie dem Vereinigten Königreich ohne SRA-Zulassung oder FCA-Regulierung nicht einfach jemandem Rechtsrat erteilen. Damit könnte Anthropic nach britischem Recht faktisch zu einem Claims-Management-Unternehmen werden
    Nach article 89I der Financial Services and Markets Act 2000 (Regulated Activities) Order 2001 ist es eine definierte regulierte Tätigkeit, einen Anspruchsteller oder potenziellen Anspruchsteller in Bezug auf Ansprüche im Zusammenhang mit Finanzdienstleistungen oder Finanzprodukten zu beraten, einen Anspruch zu untersuchen oder einen Anspruchsteller zu vertreten
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • Mittlerweile sollten AI-Unternehmen gelernt haben, dass der Rechtsbereich nichts ist, worin man leichtfertig herumstochern sollte. Der bisherige Verlauf ist Beleg genug. Aber diese speziellen AI-Optimisten scheinen lernresistent zu sein

    • Ich glaube nicht, dass das Herumspielen in diesem Bereich aufhören wird. Anwälte sind teuer, daher ist der potenzielle Nutzen einer Ersetzung durch AI groß. Es gibt allerdings Leute, die glauben, AI-Unternehmen würden mit Anwälten konkurrieren und direkt Rechtsberatung anbieten – ich glaube nicht, dass sie das jemals tun werden, weil das ein Minenfeld der Haftung ist
      Stattdessen wollen sie Kanzleien AI-Dienste bereitstellen, damit diese sie in ihrer eigenen Rechtsberatung verwenden. Ob gut oder schlecht, das passiert bereits, und fast alle großen Wirtschaftskanzleien nutzen AI in irgendeiner Form. Auch die Mandanten verlangen es. Probleme durch den Einsatz von AI im Rechtsbereich wird es weiterhin geben, aber die Verantwortung wird bei den Anwälten liegen
    • Schon allein der PR-Effekt dürfte es wert sein, solange man nicht in die Haftung gedrängt wird. Keine gute Situation
  • Dass der GitHub-Organisationsname „Anthropics“ lautet, wirkt ziemlich irreführend