Die EU KI-Verordnung (EU AI Act) ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Sie trat am 1. August 2024 in Kraft, mit gestaffelten Pflichten bis 2027. Für Beratungsunternehmen ergeben sich daraus direkte Konsequenzen (Ihre eigenen KI-Tools sind nun reguliert) und indirekte Chancen (Ihre Mandanten brauchen Hilfe bei der Umsetzung).

Dieser Leitfaden behandelt, was Kanzleien, Unternehmensberatungen und Wirtschaftsprüfungsgesellschaften wissen müssen. Keine Rechtstheorie. Praktische Anforderungen, Fristen und Handlungsschritte.

73 %
der EU-Kanzleien nutzen KI-Tools, haben aber keine formalen Nutzungsrichtlinien
CCBE-Umfrage, 2025
Aug. 2025
GPAI-Pflichten bereits in Kraft (ChatGPT, Claude, Copilot)
EU KI-VO Art. 51-56
35 Mio. €
Höchststrafe für verbotene KI-Praktiken (oder 7 % des Jahresumsatzes)
EU KI-VO Art. 99

1. Was die EU KI-Verordnung verlangt

Die EU KI-Verordnung klassifiziert KI-Systeme in vier Risikostufen. Jede Stufe bringt unterschiedliche Pflichten mit sich. Die Verordnung gilt für jeden, der KI-Systeme in der EU entwickelt oder einsetzt, unabhängig vom Sitz des Anbieters.

Für Beratungsunternehmen ist die relevanteste Rolle die des Betreibers: eine Einrichtung, die ein KI-System unter ihrer Verantwortung nutzt. Wenn Ihre Firma Harvey, Luminance, Kira, CoCounsel oder auch nur ChatGPT für Mandantenarbeit einsetzt, sind Sie Betreiber.

Die vier Risikostufen:

2. Wichtige Fristen für Beratungsunternehmen

1. August 2024
EU KI-Verordnung tritt in Kraft
Offizielle Veröffentlichung. 24-monatige Übergangsfrist für die meisten Bestimmungen.
2. Februar 2025
Verbotene Praktiken durchsetzbar
Verbotene KI-Systeme müssen eingestellt werden. Betrifft Social Scoring, manipulative KI und die meisten Formen der Emotionserkennung am Arbeitsplatz.
2. August 2025
GPAI-Modellpflichten gelten
Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (OpenAI, Anthropic, Google, Microsoft) müssen Transparenz- und Dokumentationspflichten erfüllen. Betreiber müssen ihre Nutzung dieser Tools auf Transparenzregeln prüfen.
2. August 2026
Vollständige Durchsetzung
Alle Bestimmungen durchsetzbar, einschließlich Hochrisiko-KI-Systemanforderungen. Konformitätsbewertungen, Risikomanagementsysteme und Qualitätsmanagement müssen eingerichtet sein.
2. August 2027
Bestandsschutz endet
KI-Systeme, die bereits vor August 2026 auf dem Markt waren oder in Betrieb sind, haben ein zusätzliches Jahr zur vollständigen Compliance.

Warum das jetzt wichtig ist: GPAI-Pflichten (August 2025) gelten bereits. Wenn Ihre Firma ChatGPT, Claude, Copilot oder andere KI-Tools mit allgemeinem Verwendungszweck nutzt, sollten Sie bereits Transparenzmaßnahmen implementiert haben. Die Frist für Hochrisiko-Systeme (August 2026) liegt nur noch 5 Monate entfernt.

3. Risikoklassifizierung Ihrer bestehenden Tools

Die Risikostufe hängt vom Anwendungsfall ab, nicht vom Tool selbst. Dasselbe KI-System kann in einem Kontext minimales und in einem anderen hohes Risiko darstellen.

KI-Tool / AnwendungsfallRisikostufeBegründung
KI-Dokumentenprüfung (Harvey, Luminance, Kira)BegrenztKI-gestützte Suche und Analyse. Mensch trifft finale Entscheidung. Transparenzpflicht gegenüber Mandanten.
KI-VertragserstellungBegrenztKI generiert Inhalte, die ein Mensch vor Auslieferung prüft. Transparenzpflicht gilt.
KI für HR-Entscheidungen (Einstellung, Beförderung)HochAnhang III listet KI im Beschäftigungsbereich explizit auf. Vollständige Hochrisiko-Compliance erforderlich.
KI-Kreditbewertung / FinanzanalyseHochIn Anhang III gelistet. Konformitätsbewertung erforderlich.
Chatbots für MandantenaufnahmeBegrenztOffenlegungspflicht, dass der Nutzer mit einem KI-System interagiert.
KI-Rechtsrecherche (Westlaw AI, CoCounsel)MinimalInternes Tool zur Unterstützung. Kein direkter Mandanteneinfluss. Freiwillige Kodizes.
KI-Steuerberatung / automatisierte BuchhaltungBegrenztErzeugt Ergebnisse, die ein Mensch prüft. Bei autonomen steuerlichen Entscheidungen potenziell hohes Risiko.
Emotionserkennung in BewerbungsgesprächenVerbotenEmotionserkennung am Arbeitsplatz/in der Bildung ist untersagt. Seit Februar 2025.
KI-gestützte Due DiligenceBegrenztKI analysiert Dokumente, Mensch entscheidet. Kann eskalieren, wenn KI autonom Transaktionen bewertet.
Predictive Analytics für VerfahrensausgangHoch (potenziell)Bei Einsatz in der Rechtspflege oder zur Beeinflussung gerichtlicher Entscheidungen fällt dies unter Anhang III.

4. Ihre Pflichten als Betreiber

Auch wenn Sie KI nicht selbst entwickeln (sondern nur Tools anderer nutzen), weist die EU KI-Verordnung Betreibern spezifische Pflichten zu.

Für alle Risikostufen

Für Hochrisiko-KI-Systeme

5. KI mit allgemeinem Verwendungszweck: ChatGPT, Copilot, Claude

KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI, GPAI) unterliegen einem eigenen Regelungsrahmen (Titel IIIa). Seit August 2025 müssen GPAI-Anbieter:

Als Betreiber von GPAI-Tools sind Ihre Pflichten anders als die des Anbieters. Sie müssen nicht die Modellarchitektur dokumentieren. Aber Sie müssen:

Praktische Konsequenz: Wenn Sie ChatGPT Enterprise, Microsoft Copilot, Claude oder ähnliche Tools nutzen, sollten Sie bereits eine schriftliche KI-Nutzungsrichtlinie, ein Schulungsprogramm und Offenlegungsformulierungen in Ihren Mandantenvereinbarungen haben. Das ist seit August 2025 keine Best Practice mehr, sondern eine rechtliche Pflicht.

6. Branchenspezifische Hinweise

Kanzleien

Rechtsdienstleistungen stehen an einer einzigartigen Schnittstelle. Sie sind sowohl der Verordnung unterworfen (eigene KI-Tools) als auch in der Position, Mandanten dazu zu beraten.

Unternehmensberatungen

Wirtschaftsprüfung und Steuerberatung

7. 10-Schritte-Compliance-Checkliste

  1. 1
    Alle KI-Systeme inventarisieren
    Listen Sie jedes KI-Tool auf, das Ihre Firma nutzt. Von Enterprise-Plattformen bis zu einzelnen ChatGPT-Konten. Einschließlich Schatten-IT. Was Sie nicht kennen, können Sie nicht compliant machen.
  2. 2
    Jedes System nach Risikostufe klassifizieren
    Ordnen Sie jedes Tool seinem Anwendungsfall zu und bestimmen Sie die Risikostufe. Die Risikostufe wird durch den Anwendungsfall bestimmt, nicht durch das Tool selbst.
  3. 3
    Auf verbotene Nutzungen prüfen
    Bestätigen Sie, dass kein KI-System für Social Scoring, Emotionserkennung am Arbeitsplatz oder andere verbotene Praktiken eingesetzt wird. Seit Februar 2025 durchsetzbar.
  4. 4
    KI-Nutzungsrichtlinie erstellen oder aktualisieren
    Dokumentieren Sie genehmigte Tools, erlaubte Anwendungsfälle, erforderliche Schutzmaßnahmen und verbotene Nutzungen. Quartalsweise überprüfen.
  5. 5
    Transparenzmaßnahmen umsetzen
    Aktualisieren Sie Mandantenvereinbarungen, Website-AGB und interne Kommunikation zur Offenlegung der KI-Nutzung. Chatbots brauchen klare „KI-gestützt"-Kennzeichnung.
  6. 6
    Protokolle für menschliche Aufsicht einrichten
    Definieren Sie für jedes KI-System, wer die Ergebnisse prüft, wie geprüft wird und wer Entscheidungen überstimmen darf. Bei Hochrisiko-Systemen benannte Personen mit entsprechender Qualifikation.
  7. 7
    KI-Kompetenzschulungen durchführen
    Artikel 4 verlangt, dass alle Mitarbeiter, die KI-Systeme nutzen, ein ausreichendes Verständnis haben. Das bedeutet strukturierte Schulungen, nicht nur eine Rundmail.
  8. 8
    Datenverarbeitung und Datenschutz prüfen
    KI-Tools, die personenbezogene Daten verarbeiten, müssen sowohl der KI-Verordnung als auch der DSGVO genügen. Auftragsverarbeitungsverträge und Datenschutz-Folgenabschätzungen aktualisieren.
  9. 9
    Anbieter-Compliance überprüfen
    Fordern Sie Compliance-Dokumentation von Ihren KI-Tool-Anbietern an. Für GPAI-Modelle bestätigen, dass der Anbieter die erforderliche technische Dokumentation veröffentlicht hat.
  10. 10
    Monitoring und Vorfallmeldung einrichten
    Prozesse zur Erkennung von Fehlfunktionen, verzerrten Ergebnissen oder Sicherheitsvorfällen etablieren. Bei Hochrisiko-Systemen schwerwiegende Vorfälle an Anbieter und zuständige Behörde melden.

8. Sanktionen und Durchsetzung

VerstoßHöchststrafe
Verbotene KI-Praktiken (Art. 5)35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes
Hochrisiko-KI-Systempflichten15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes
Falsche Angaben gegenüber Behörden7,5 Mio. EUR oder 1 % des weltweiten Jahresumsatzes

Für KMU und Startups gelten verhältnismäßige Obergrenzen. Für die meisten Beratungsunternehmen überwiegt jedoch der Reputationsschaden die finanziellen Sanktionen. Eine Kanzlei, die bei verantwortungslosem KI-Einsatz erwischt wird, riskiert Mandantenvertrauen und berufsrechtliche Konsequenzen.

9. Fünf häufige Missverständnisse

Missverständnis 1: „Wir nutzen nur ChatGPT, also sind wir nicht reguliert."

Falsch. Die Nutzung von ChatGPT macht Sie zum Betreiber eines GPAI-Systems. Transparenzpflichten gelten. Sie müssen Mandanten informieren, wenn KI-generierte Inhalte in Arbeitsergebnissen enthalten sind.

Missverständnis 2: „Die KI-Verordnung betrifft KI-Entwickler, nicht Nutzer."

Die Verordnung schafft Pflichten für Anbieter (Entwickler) und Betreiber (Nutzer). Betreiberpflichten sind leichter, aber rechtlich bindend.

Missverständnis 3: „Unser KI-Anbieter kümmert sich um Compliance."

Anbieter erfüllen Anbieterpflichten. Betreiberpflichten (Transparenz, menschliche Aufsicht, Schulung, Vorfallmeldung) liegen bei Ihnen.

Missverständnis 4: „Die vollständige Durchsetzung kommt erst 2026."

Teilweise richtig. Verbotene Praktiken seit Februar 2025. GPAI-Pflichten seit August 2025. Hochrisiko ab August 2026. Wenn Sie heute GPAI-Tools nutzen, sollten Sie bereits konform sein.

Missverständnis 5: „Das gilt nur für Firmen in der EU."

Die KI-Verordnung hat extraterritoriale Wirkung. Wenn die Ergebnisse Ihres KI-Systems in der EU genutzt werden, gilt die Verordnung, unabhängig von Ihrem Firmensitz.

10. Was Sie in diesem Quartal tun sollten

  1. KI-Inventar vervollständigen (1 Woche). Höchste Priorität. Was Sie nicht kennen, können Sie nicht managen.
  2. KI-Nutzungsrichtlinie veröffentlichen (2 Wochen). Selbst eine grundlegende Richtlinie setzt ein Signal gegenüber Regulierern, Mandanten und Mitarbeitern.
  3. Mandantenvereinbarungen aktualisieren (1 Woche). Offenlegungssprache zur KI-Nutzung ergänzen.
  4. KI-Kompetenzschulung planen (laufend). Beginnen Sie mit einer 2-stündigen Sitzung. Quartalsweise wiederholen.
  5. Hochrisiko-KI-Systeme identifizieren (2 Wochen). Falls vorhanden (meist im HR-Bereich), Konformitätsbewertungsprozess starten.

Die Firmen, die zuerst handeln, definieren den Standard. In jedem Regulierungszyklus setzen Vorreiter den Maßstab dafür, was „angemessene Compliance" bedeutet. Nachzügler übernehmen den Standard, ohne ihn mitgestaltet zu haben. Für Beratungsunternehmen, bei denen Vertrauen das Produkt ist, schafft die wahrgenommene Führungsrolle bei verantwortungsvoller KI-Nutzung einen Wettbewerbsvorteil, der schwer zu replizieren ist.

KI-Readiness Ihrer Firma bewerten

Unser 3-Minuten-Assessment identifiziert Compliance-Lücken und erstellt einen personalisierten Aktionsplan.

Assessment starten

Weiterführende Artikel