Warum Anwälte ChatGPT nutzen und warum Vorsicht berechtigt ist

ChatGPT ist in deutschen Kanzleien angekommen. Nicht als Pilotprojekt, sondern als tägliches Arbeitsmittel. Rechtsanwälte nutzen es für Recherche-Zusammenfassungen, erste Vertragsentwürfe, Marketingtexte, die Vorbereitung von Mandantengesprächen und die schnelle Einordnung fremder Rechtsgebiete. Die Zeitersparnis ist real. In manchen Kanzleien berichten Associates, dass sie bestimmte Routineaufgaben inzwischen in einem Bruchteil der Zeit erledigen.

Gleichzeitig ist die Skepsis berechtigt. ChatGPT wurde nicht für Anwälte gebaut. Es kennt weder die BRAO noch die Besonderheiten des deutschen Berufsrechts. Und es hat kein Interesse daran, Ihre Verschwiegenheitspflicht zu wahren. Wer ChatGPT unreflektiert nutzt, riskiert berufsrechtliche Konsequenzen, DSGVO-Verstöße und im schlimmsten Fall den Verlust des Mandantenvertrauens.

Dieser Leitfaden gibt keine pauschale Empfehlung für oder gegen ChatGPT. Er beschreibt, unter welchen Bedingungen der Einsatz rechtlich vertretbar und praktisch sinnvoll ist, und wo die Grenze liegt.

Kernerkenntnis: Das Problem ist nicht ChatGPT. Das Problem ist die Art, wie es genutzt wird. Die meisten berufsrechtlichen Risiken entstehen nicht durch den Einsatz von KI, sondern durch die unreflektierte Eingabe von Mandantendaten in nicht abgesicherte Systeme.

Die drei Kernrisiken: Mandantendaten, Training, Halluzinationen

Risiko 1: Mandantendaten in fremden Systemen

Das gravierendste Risiko beim ChatGPT-Einsatz in der Kanzlei ist nicht technischer, sondern rechtlicher Natur. Sobald Sie Mandantendaten, Aktenzeichen, Namen oder Vertragsdetails in das Chat-Interface von ChatGPT eingeben, verlassen diese Daten Ihre Infrastruktur. OpenAI ist ein US-amerikanisches Unternehmen. Die Datenverarbeitung findet, je nach Konfiguration, außerhalb der EU statt. Das begründet eine Reihe von Pflichten und Risiken, auf die wir in Abschnitt 8 detailliert eingehen.

Wichtig ist die Unterscheidung: Nicht jede ChatGPT-Nutzung betrifft Mandantendaten. Wer ChatGPT bittet, einen allgemeinen Überblick über das Insolvenzrecht zu verfassen oder einen Marketingtext für die Kanzlei-Website zu schreiben, gibt keine personenbezogenen Daten preis. Das Risiko entsteht dort, wo konkrete Mandatsinformationen eingegeben werden.

Risiko 2: Modelltraining mit Ihren Eingaben

OpenAI nutzt Konversationen aus dem kostenlosen ChatGPT-Dienst standardmäßig für das Training zukünftiger Modelle. Das bedeutet: Was Sie eingeben, kann theoretisch in zukünftigen Modellversionen auftauchen oder die Modellgewichtung beeinflussen. Für vertrauliche Kanzleidaten ist das inakzeptabel.

Dieses Risiko lässt sich technisch mitigieren. ChatGPT Team, ChatGPT Enterprise und der API-Zugang ohne Standardkonfiguration bieten Opt-out-Optionen, bei denen Eingaben nicht für das Training verwendet werden. Die Bedingungen hierzu sind in den OpenAI-Nutzungsbedingungen geregelt, und für Business-Konten gelten seit 2023 deutlich restriktivere Datenschutzbedingungen als für private Nutzer.

Risiko 3: Halluzinationen in juristischen Kontexten

ChatGPT erfindet Urteile. Das ist keine Übertreibung, sondern eine dokumentierte Eigenschaft großer Sprachmodelle. Der Fall des US-amerikanischen Anwalts Steven Schwartz, der im Jahr 2023 von ChatGPT erfundene Präzedenzfälle vor Gericht einreichte, ist zum Mahnmal der Legal-Tech-Branche geworden. In Deutschland drohen ähnliche Konsequenzen, wenn KI-generierte Rechtsbehauptungen ungeprüft in Schriftsätze, Gutachten oder Mandantenberatungen einfließen.

Das Risiko ist asymmetrisch: Bei Recherche-Zusammenfassungen für den internen Gebrauch ist eine Halluzination ärgerlich, aber behebbar. In einem Schriftsatz, der beim Gericht eingereicht wird, ist sie ein berufsrechtliches und haftungsrechtliches Problem. Jede rechtliche Information, die aus ChatGPT stammt, muss über primäre Rechtsquellen verifiziert werden. Dazu gibt es keine Alternative.

Praxishinweis: ChatGPT kennt keine aktuellen Urteile. Das Trainings-Datenschnittdatum liegt in der Vergangenheit. Für aktuelle Rechtsprechung sind juris, beck-online oder der Bundesrechtsprechungs-Dienst unverzichtbar. ChatGPT kann helfen, Zusammenhänge zu erklären. Aktuelle Rechtsprechung liefert es nicht zuverlässig.

ChatGPT sicher konfigurieren: Enterprise, Team, Free, API

Nicht alle ChatGPT-Konten sind gleich. Die Wahl des Produkts ist die wichtigste Einzelentscheidung, die eine Kanzlei beim ChatGPT-Einsatz treffen kann.

ChatGPT Free: Nicht für Kanzleidaten geeignet

Der kostenlose ChatGPT-Dienst bietet keine Datenschutzgarantien, die für den Einsatz in einer Kanzlei vertretbar wären. Eingaben können für das Training verwendet werden. Es gibt keinen Auftragsverarbeitungsvertrag (AVV), der für die DSGVO-Konformität erforderlich wäre. Der Einsatz für kanzleibezogene Inhalte, die auch nur mittelbar Mandantendaten enthalten könnten, ist nicht zu empfehlen.

ChatGPT Team: Vertretbar mit Einschränkungen

ChatGPT Team (ab 25 Euro pro Nutzer und Monat, Stand 2026) bietet standardmäßig kein Modelltraining mit Ihren Daten. OpenAI stellt für Team-Konten einen AVV bereit. Die Datenverarbeitung findet nach OpenAI-Angaben in US-Rechenzentren statt, mit Möglichkeit zur EU-Datenverarbeitung. Für anonymisierte oder nicht mandatsbezogene Kanzleiarbeit ist dies ein akzeptabler Ausgangspunkt. Für individualisierte Mandantendaten bleibt es problematisch.

ChatGPT Enterprise: Stärkste Absicherung

ChatGPT Enterprise (Preise auf Anfrage, für Organisationen ab 150 Nutzern konzipiert) bietet die umfangreichsten Datenschutzgarantien: kein Training mit Unternehmensdaten, dedizierte Instanzen, SSO-Integration, Audit-Logs und ein umfassendes Datenschutz-Framework. Für größere Kanzleien, die ChatGPT systematisch einsetzen wollen, ist Enterprise der richtige Ausgangspunkt für eine DSGVO-Konformitätsprüfung.

API-Zugang: Kontrolle ohne Interface-Risiken

Der Zugang über die OpenAI API (anstelle des Chat-Interface) bietet in der Standardkonfiguration ebenfalls kein Modelltraining. Mit dem API-Zugang können Kanzleien ChatGPT in eigene, kontrollierte Workflows integrieren, etwa in ein internes Dokumentenmanagementsystem. Die technische Umsetzung erfordert Entwicklerressourcen, bietet aber die größte Flexibilität und Kontrolle.

Kein Modelltraining

  • ChatGPT Team (Standard-Opt-out)
  • ChatGPT Enterprise
  • OpenAI API (Standardkonfiguration)
  • ChatGPT Free mit manuell deaktiviertem Training

AVV verfügbar

  • ChatGPT Team
  • ChatGPT Enterprise
  • OpenAI API (Data Processing Agreement)

Unabhängig vom Produkt gilt: Überprüfen Sie die aktuellen OpenAI-Nutzungsbedingungen und Datenschutzerklärungen. Diese ändern sich regelmäßig. Was im Frühjahr 2025 galt, kann heute anders sein.

Erlaubte Anwendungen: Was funktioniert ohne Risiko

Es gibt einen erheblichen Bereich kanzleibezogener Arbeit, bei dem ChatGPT sinnvoll und ohne berufsrechtliches Risiko eingesetzt werden kann. Das Schlüsselkriterium: keine personenbezogenen Mandantendaten, keine Aktenzeichen, keine identifizierenden Informationen.

Juristische Recherche-Zusammenfassungen

ChatGPT ist gut darin, Überblicke über Rechtsgebiete zu erstellen, die ein Anwalt weniger häufig bearbeitet. „Erklären Sie die Grundprinzipien des deutschen Franchiserechts" oder „Was sind die Hauptunterschiede zwischen einem Dienst- und einem Werkvertrag nach BGB?" sind Anfragen, die kein Mandantendaten-Risiko begründen. Die Antworten müssen verifiziert werden, aber als Ausgangspunkt für eine vertiefte Recherche in juris oder beck-online sind sie nützlich.

Vorlagenerstellung und Musterverträge

Allgemeine Vertragsmuster und Vorlagen für häufig verwendete Vereinbarungen können mit ChatGPT erstellt und anschließend anwaltlich überarbeitet werden. Wichtig: Der Anwalt bleibt Autor und Verantwortlicher. ChatGPT liefert einen Rohentwurf. Was herausgeht, muss fachlich überprüft werden, bevor es einem Mandanten vorgelegt wird.

Kanzlei-Marketing und Mandantenkommunikation

Blogbeiträge, Erklärtexte für die Kanzlei-Website, Newsletter-Inhalte und allgemeine rechtliche Informationen für Mandanten sind ein sinnvolles Anwendungsfeld. ChatGPT schreibt flüssig und kann juridisch präzise sein, wenn es gut geführt wird. Da hier keine individuellen Mandantendaten involviert sind, bestehen keine berufsrechtlichen Risiken. Das Qualitätsniveau muss trotzdem geprüft werden.

Interne Notizen und Strukturierungshilfe

Meeting-Protokolle aus eigenen Aufzeichnungen strukturieren, Argumentationslinien entwickeln, Briefingtexte für interne Besprechungen vorbereiten: all das ist möglich, solange die Eingaben anonymisiert sind. „Strukturieren Sie folgende Argumente für eine Verhandlung über einen Immobilienmietvertrag" ohne Mandantennamen oder konkrete Aktendetails ist unproblematisch.

Fremdsprachige Dokumente einordnen

Wenn ein Mandant ein englisches oder französisches Vertragsdokument vorlegt, kann ChatGPT helfen, die Struktur und den allgemeinen Inhalt zu verstehen. Für die Eingabe in ChatGPT sollte das Dokument zuvor von identifizierenden Informationen bereinigt werden. Die juristische Bewertung bleibt dem Anwalt vorbehalten.

Was niemals in ChatGPT gehört

Es gibt Kategorien von Informationen, die unter keinen Umständen in ein ChatGPT-Interface eingegeben werden dürfen, unabhängig davon, welches Produkt verwendet wird.

Absolute Verbote für ChatGPT-Eingaben in der Kanzlei:

  • Mandantennamen, Adressen oder sonstige identifizierende Personendaten
  • Aktenzeichen oder Verfahrensnummern laufender Mandate
  • Inhalte vertraulicher Schriftsätze, Klageschriften oder Gerichtsbeschlüsse mit Personenbezug
  • Vertragsdetails mit Vertragspartnernamen und konkreten wirtschaftlichen Konditionen
  • Informationen über laufende Ermittlungsverfahren, Steuersachverhalte oder Insolvenzverfahren
  • Mandanteninterne Dokumente, Bilanzen oder Korrespondenz
  • Inhalte, die unter das Bankgeheimnis oder spezialgesetzliche Schweigepflichten fallen

Die Begründung ist einfach: Die anwaltliche Verschwiegenheitspflicht nach §43a Abs. 2 BRAO gilt ohne Ausnahme. Sie schützt das Vertrauensverhältnis zwischen Anwalt und Mandant. Sobald Mandantendaten an ein System eines Drittanbieters übermittelt werden, entsteht eine Übermittlung im Sinne der DSGVO. Für diese Übermittlung brauchen Sie eine Rechtsgrundlage, einen AVV und, in vielen Fällen, die informierte Zustimmung Ihres Mandanten.

Das Argument „Es ist ja anonymisiert" schützt nicht vollständig. Ein Schriftsatz über „eine mittelständische GmbH aus dem Raum Frankfurt, die einen Geschäftsführerstreit führt" kann trotz fehlender Namen identifizierend sein, wenn der Sachverhalt hinreichend spezifisch ist.

Alternativen für sensible Rechtsarbeit

ChatGPT wurde für die Allgemeinheit gebaut. Für Kanzleien, die KI für mandatsbezogene Arbeit einsetzen wollen, gibt es spezialisierte Tools mit stärkeren Datenschutzgarantien und auf Rechtsarbeit zugeschnittenen Funktionen.

Luminance

Luminance ist eine der am stärksten etablierten Legal-AI-Plattformen für Vertragsanalyse und Due Diligence. Das in Cambridge gegründete Unternehmen bietet EU-gehostete Instanzen an, was die DSGVO-Compliance erleichtert. Luminance wurde auf juristischen Dokumenten trainiert und erkennt Vertragsklauseln, Risiken und Abweichungen von Standardformulierungen mit deutlich höherer Präzision als ein Allzweck-LLM. Preise beginnen bei etwa 1.000 Euro pro Monat.

CoCounsel (Thomson Reuters)

CoCounsel ist in den Westlaw-Dienst von Thomson Reuters integriert und bietet KI-gestützte juristische Recherche auf Basis lizenzierter Rechtsprechungsdatenbanken. Für Kanzleien, die bereits Westlaw nutzen, ist dies der zugänglichste Einstieg in KI-gestützte Recherche. CoCounsel zitiert Quellen und halluziniert deutlich seltener als allgemeine LLMs, weil es auf verifizierten Rechtsdatenbanken operiert.

Harvey AI

Harvey ist eine generative KI-Plattform, die speziell für Anwaltskanzleien entwickelt wurde. Sie basiert auf OpenAI-Modellen, ist aber in einer Umgebung mit strengen Datenschutzkontrollen eingebettet. Harvey unterstützt unter anderem die Erstellung juristischer Dokumente, Vertragsanalyse und mandatsbezogene Recherche. Der Zugang ist derzeit primär für größere Kanzleien verfügbar.

Spellbook

Spellbook ist tief in Microsoft Word integriert und richtet sich an transaktionsorientierte Praxisgruppen. Es schlägt beim Verfassen von Verträgen direkt Formulierungen vor, identifiziert ungewöhnliche Klauseln und unterstützt die Vertragsverhandlung. Für Kanzleien mit hohem M&A- oder Vertragsvolumen ist Spellbook eine praxisnahe Alternative zu ChatGPT.

Legartis

Legartis ist eine deutschsprachige Legal-AI-Plattform mit Fokus auf Vertragsmanagement und Vertragsanalyse. Als europäisches Unternehmen (Schweiz) ist die DSGVO-Compliance stärker in der Produktarchitektur verankert als bei US-amerikanischen Anbietern. Legartis eignet sich besonders für Kanzleien, die repetitive Vertragsarbeit in einem kontrollierten DSGVO-Rahmen automatisieren wollen.

juris und beck-online (mit KI-Funktionen)

Beide deutschen Rechtsdatenbanken haben 2024 und 2025 KI-Funktionen integriert. juris bietet einen KI-gestützten Recherche-Assistenten, der auf dem deutschen Bundesrecht und der deutschen Rechtsprechung basiert. Beck-online hat ähnliche Funktionen eingeführt. Diese Tools haben den entscheidenden Vorteil, dass sie auf verifizierten deutschen Primärquellen operieren und keine Halluzinationsgefahr bei deutschen Rechtsnormen haben, die es bei allgemeinen LLMs gibt.

LEVERTON

LEVERTON, ursprünglich in Berlin entwickelt und inzwischen Teil von MRI Software, ist auf die KI-gestützte Extraktion von Daten aus Immobilienverträgen und Leasingdokumenten spezialisiert. Für Kanzleien mit Immobilien- oder Leasingschwerpunkt ist LEVERTON ein praxiserprobtes Tool mit nachgewiesener Genauigkeit bei der Dokumentenanalyse.

KI-Nutzungsrichtlinie für die Kanzlei: Ein Muster

Jede Kanzlei, die KI-Tools einsetzt, sollte eine schriftliche Nutzungsrichtlinie haben. Nicht aus bürokratischen Gründen, sondern weil klare Regeln Fehlnutzung verhindern und im Haftungsfall dokumentieren, dass die Kanzlei ihren Sorgfaltspflichten nachgekommen ist.

Muster: KI-Nutzungsrichtlinie für Kanzleien

Geltungsbereich: Diese Richtlinie gilt für alle Mitarbeiterinnen und Mitarbeiter der Kanzlei beim Einsatz von KI-gestützten Sprachmodellen (Large Language Models), insbesondere ChatGPT, Claude, Gemini und vergleichbaren Diensten.

1. Genehmigte Systeme

  1. Nur Systeme, die von der Kanzleileitung schriftlich freigegeben wurden, dürfen für kanzleibezogene Zwecke genutzt werden.
  2. Die Nutzung privater Konten bei öffentlichen KI-Diensten für Kanzleitätigkeiten ist untersagt.
  3. Genehmigte Systeme werden in der Anlage zu dieser Richtlinie aufgeführt und regelmäßig aktualisiert.

2. Verbotene Eingaben

  1. Mandantennamen, Aktenzeichen und mandatsbezogene personenbezogene Daten dürfen nicht in KI-Systeme eingegeben werden.
  2. Vertragsinhalt mit identifizierenden Parteienangaben ist vor der Eingabe vollständig zu anonymisieren.
  3. Inhalte aus vertraulichen Schriftsätzen, Gutachten und Korrespondenz sind von der Eingabe ausgeschlossen.

3. Qualitätssicherung

  1. Alle KI-generierten Rechtsbehauptungen sind über primäre Rechtsquellen (juris, beck-online, Gesetzestexte) zu verifizieren.
  2. KI-generierte Inhalte dürfen nicht unverändert in Schriftsätze, Gutachten oder Mandantenberatungen übernommen werden.
  3. Die fachliche Verantwortung für alle KI-gestützten Arbeitsergebnisse verbleibt beim betreffenden Anwalt.

4. Mandanteninformation

  1. Mandanten sind über den Einsatz von KI-Tools zu informieren, wenn deren Dokumente oder Daten verarbeitet werden.
  2. Die entsprechende Einwilligung ist zu dokumentieren.

5. Schulung und Überprüfung

  1. Alle Mitarbeiter, die KI-Tools nutzen, nehmen mindestens einmal jährlich an einer internen Schulung teil.
  2. Diese Richtlinie wird mindestens einmal jährlich auf Aktualität überprüft.

Dieses Muster ist ein Ausgangspunkt. Jede Kanzlei muss die Richtlinie an ihre spezifische Situation, Praxisbereiche und eingesetzten Tools anpassen. Es empfiehlt sich, die Richtlinie durch einen Datenschutzbeauftragten prüfen zu lassen.

DSGVO-Pflichten, §43a BRAO und Rechtsanwaltskammer-Hinweise

DSGVO und der Einsatz von LLMs in der Kanzlei

Wenn eine Kanzlei personenbezogene Daten an einen KI-Anbieter übermittelt, ist sie datenschutzrechtlich Verantwortliche im Sinne des Art. 4 Nr. 7 DSGVO. Der KI-Anbieter ist Auftragsverarbeiter im Sinne des Art. 28 DSGVO. Das verpflichtet die Kanzlei zu folgenden Schritten:

Das Bundesdatenschutzgesetz (BDSG) ergänzt die DSGVO um nationale Regelungen, insbesondere für die Verarbeitung besonderer Kategorien personenbezogener Daten. Kanzleien, die Gesundheits-, Straf- oder andere sensible Daten verarbeiten, unterliegen strengeren Anforderungen.

§43a BRAO: Die anwaltliche Verschwiegenheitspflicht

§43a Abs. 2 der Bundesrechtsanwaltsordnung verpflichtet Rechtsanwältinnen und Rechtsanwälte zur Verschwiegenheit über alles, was ihnen in Ausübung ihres Berufes bekannt geworden ist. Diese Pflicht gilt gegenüber jedermann, also auch gegenüber KI-Anbietern.

Die rechtliche Einordnung von KI-Anbietern als Dienstleister im Sinne des §43e BRAO ist noch nicht abschließend durch die Rechtsanwaltskammern oder die Rechtsprechung geklärt. §43e BRAO gestattet Rechtsanwälten die Weitergabe von Mandanteninformationen an berufsmäßig tätige Gehilfen und Personen, die an der Berufsausübung mitwirken, wenn dies zur Erfüllung des Mandats erforderlich ist. Ob ein externer KI-Anbieter darunter fällt, ist eine offene Rechtsfrage.

Der sichere Weg ist: Mandantendaten nicht in externe KI-Systeme eingeben, solange keine vertragliche Absicherung und keine Mandanteneinwilligung vorliegen.

Hinweise der Rechtsanwaltskammern

Die deutschen Rechtsanwaltskammern haben bisher keine einheitliche, verbindliche Stellungnahme zum KI-Einsatz in Kanzleien herausgegeben. Einzelne Kammern, darunter die Rechtsanwaltskammer Berlin und die Bundesrechtsanwaltskammer (BRAK), haben in Rundbriefem und Fortbildungsveranstaltungen auf die berufsrechtlichen Risiken hingewiesen. Die BRAK hat in ihrer Stellungnahme Nr. 36/2023 darauf aufmerksam gemacht, dass der Einsatz von KI-Tools die anwaltliche Verschwiegenheitspflicht berührt und entsprechende Sorgfalt erfordert.

Kanzleien sollten die Mitteilungen ihrer jeweiligen Kammer regelmäßig verfolgen, da sich die Stellungnahmen zur KI-Nutzung weiterentwickeln.

Praktische Konsequenz: Bis zur Klärung der berufsrechtlichen Fragen durch die Kammern oder die Rechtsprechung gilt als Daumenregel: Alles, was Sie einem anderen Anwalt nicht unverschlüsselt per E-Mail schicken würden, gehört nicht in ChatGPT.

Praktischer Workflow: 80% Nutzen bei 0% Risiko

Die gute Nachricht: Ein erheblicher Teil der kanzleibezogenen KI-Nutzung ist möglich, ohne berufsrechtliche oder datenschutzrechtliche Risiken einzugehen. Es braucht dafür keine komplizierten technischen Lösungen, sondern klare Arbeitsabläufe.

Schritt 1: Die Eingabe anonymisieren

Bevor Sie ein Dokument oder einen Sachverhalt in ChatGPT eingeben, ersetzen Sie alle identifizierenden Informationen durch Platzhalter. Aus „Müller GmbH, vertreten durch Geschäftsführer Hans Schmidt, mit Sitz in Frankfurt" wird „Gesellschaft A, vertreten durch ihren Geschäftsführer, mit Sitz in einer deutschen Großstadt". Dieser Schritt dauert oft weniger als zwei Minuten und eliminiert das wesentliche Risiko.

Schritt 2: ChatGPT für die Struktur nutzen, nicht für die Fakten

ChatGPT ist stark darin, Texte zu strukturieren, Argumente zu ordnen und Formulierungen zu verbessern. Es ist schwach darin, aktuelle Rechtsprechung korrekt wiederzugeben. Nutzen Sie es entsprechend: „Welche Gliederung macht für einen Schriftsatz zur fristlosen Kündigung Sinn?" ist eine gute Anfrage. „Was hat das BGH zuletzt zur fristlosen Kündigung bei Miete entschieden?" ist eine risikoreiche Anfrage, weil die Antwort nicht verlässlich verifizierbar ist.

Schritt 3: Alles verifizieren, bevor es das Büro verlässt

Kein KI-Output geht direkt an den Mandanten oder ans Gericht. Jede rechtliche Behauptung wird über primäre Quellen geprüft. Jede Formulierung wird durch den zuständigen Anwalt freigegeben. Diese Regel klingt selbstverständlich. In der Praxis gerät sie unter Zeitdruck leicht in Vergessenheit.

Schritt 4: Separat dokumentieren

Wenn KI-generierte Inhalte in Mandatsdokumenten Verwendung finden, notieren Sie intern, welche Teile KI-gestützt erstellt wurden. Das dient der internen Qualitätskontrolle und kann im Haftungsfall relevant sein.

Schritt 5: Das richtige Tool für die richtige Aufgabe

ChatGPT für allgemeine Texte und mandatsunabhängige Recherche. juris und beck-online für aktuelle deutsche Rechtsprechung. Luminance oder Legartis für Vertragsanalyse mit Mandantendaten (nach entsprechender vertraglicher Absicherung). Spellbook für Vertragsentwürfe in Microsoft Word. Der Fehler liegt nicht im KI-Einsatz, sondern im falschen Einsatz des falschen Tools für die falsche Aufgabe.

Häufige Fehler beim ChatGPT-Einsatz in Kanzleien

Die folgende Liste basiert auf Beobachtungen aus der Beratungspraxis. Diese Fehler sind keine Seltenheiten, sie sind typisch.

Fehler 1: Private Konten für Kanzleiarbeit nutzen

Viele Anwälte haben private ChatGPT-Konten, die sie auch für Kanzleitätigkeiten nutzen. Private Konten bieten keine Unternehmens-Datenschutzgarantien. Es gibt keinen AVV. Das Konto ist nicht in die Kanzlei-IT-Governance eingebettet. Dieser Fehler lässt sich leicht beheben: Kanzleikonto auf ChatGPT Team oder Enterprise einrichten und private Konten für Kanzleidaten sperren.

Fehler 2: Urteile aus ChatGPT ungeprüft zitieren

ChatGPT erfindet Aktenzeichen und Urteilsinhalte, die plausibel klingen. Im schlimmsten Fall zitiert ein Schriftsatz ein Urteil, das in dieser Form nicht existiert. Der betreffende Anwalt bemerkt es nicht, weil das Urteil inhaltlich zum Argument passt. Vor Gericht wird dieser Fehler aufgedeckt. Jedes Urteil, das in einem Schriftsatz auftaucht, muss im Original überprüft worden sein.

Fehler 3: KI als Rechtsexperten behandeln

ChatGPT antwortet mit großer Sicherheit, auch wenn es falsch liegt. Es sagt selten „das weiß ich nicht". Anwälte, die an die Autorität schriftlicher Quellen gewöhnt sind, können dazu neigen, KI-Aussagen eine ähnliche Autorität zuzumessen. Das ist ein Kategorienfehler. ChatGPT ist ein Textgenerator, der auf Wahrscheinlichkeit operiert. Es ist kein Rechtslexikon und kein Experte.

Fehler 4: Keine Kanzleirichtlinie haben

Wenn Associates und Berufseinsteiger ohne klare Regeln ChatGPT nutzen, treffen sie Entscheidungen über Datenschutz und Berufsrecht, die eigentlich Partnersache sind. Die Richtlinie muss nicht umfangreich sein. Sie muss existieren und bekannt sein.

Fehler 5: KI-Nutzung nicht gegenüber Mandanten kommunizieren

Mandanten haben zunehmend eine Meinung dazu, ob ihre Daten KI-Systemen zugespielt werden. Transparenz verhindert spätere Vertrauensverluste. Kanzleien, die KI einsetzen, sollten dies im Mandatsvertrag oder in den Allgemeinen Auftragsbedingungen transparent machen.

Fehler 6: KI-Tools einfach ausprobieren ohne Due Diligence

Neue Legal-AI-Tools erscheinen im wöchentlichen Rhythmus. Nicht alle bieten die Datenschutzgarantien, die für den Einsatz in einer deutschen Kanzlei erforderlich sind. Vor der Einführung eines neuen KI-Tools gehört eine Prüfung der Datenschutzerklärung, der AVV-Verfügbarkeit und des Serverstandorts zum Minimum.

Nicht sicher, wo Sie stehen?

Unser kostenloser KI-Readiness-Check hilft Kanzleien dabei, die eigene KI-Bereitschaft realistisch einzuschätzen: welche Tools sinnvoll sind, welche Risiken bestehen und welche Schritte als erstes zu gehen sind.

Zum Assessment

Oder direkt Kontakt aufnehmen: irene@letaido.it

Quellen und weiterführende Literatur

  • Bundesrechtsanwaltsordnung (BRAO), insbesondere §43a (Verschwiegenheitspflicht) und §43e (Gehilfen). gesetze-im-internet.de
  • Bundesrechtsanwaltskammer (BRAK). Stellungnahme Nr. 36/2023: KI-Einsatz und anwaltliche Verschwiegenheitspflicht. brak.de
  • Verordnung (EU) 2016/679 (DSGVO), Art. 28 (Auftragsverarbeitung) und Art. 30 (Verarbeitungsverzeichnis). eur-lex.europa.eu
  • Bundesdatenschutzgesetz (BDSG). gesetze-im-internet.de
  • OpenAI. Enterprise Privacy und Data Processing Addendum. openai.com
  • OpenAI. ChatGPT Team Datenschutzinformationen. openai.com
  • Luminance. Legal AI Platform. luminance.com
  • Thomson Reuters CoCounsel. thomsonreuters.com
  • Harvey AI. Legal AI Platform. harvey.ai
  • Spellbook. Contract AI for Lawyers. spellbook.legal
  • Legartis. KI-Vertragsmanagement. legartis.ai
  • juris GmbH. Juristische Datenbank mit KI-Funktionen. juris.de
  • beck-online. Rechtsdatenbank. beck-online.beck.de
  • MRI Software / LEVERTON. AI-gestützte Vertragsanalyse. mrisoftware.com
  • US District Court SDNY, Matter of Mata v. Avianca, Inc., 22-cv-1461 (PKC) (2023). Bekannter Fall zu KI-generierten Falschzitaten vor Gericht.
  • Europäischer Datenschutzausschuss (EDSA). Leitlinien zum Einsatz von KI-Tools. edpb.europa.eu

Read this article in English · Przeczytaj ten artykuł po polsku · Leer este artículo en español