Akt o sztucznej inteligencji UE (EU AI Act) to pierwsze na świecie kompleksowe rozporządzenie dotyczące AI. Weszło w życie 1 sierpnia 2024 r., z obowiązkami wdrażanymi etapami do 2027 r. Dla firm doradczych konsekwencje są zarówno bezpośrednie (wasze własne narzędzia AI są teraz regulowane), jak i pośrednie (wasi klienci będą potrzebować pomocy w nawigowaniu tych przepisów).

Ten przewodnik obejmuje to, co kancelarie prawne, firmy konsultingowe i biura rachunkowe muszą wiedzieć. Bez teorii prawnej. Praktyczne wymagania, terminy i kroki do podjęcia.

73%
kancelarii w UE korzysta z narzędzi AI, ale nie ma formalnych polityk użytkowania
Ankieta CCBE, 2025
Sierp. 2025
Obowiązki GPAI już obowiązują (ChatGPT, Claude, Copilot)
Akt o AI UE art. 51-56
35 mln €
maksymalna kara za zakazane praktyki AI (lub 7% globalnego obrotu)
Akt o AI UE art. 99

1. Czego wymaga Akt o AI UE

Akt o AI UE klasyfikuje systemy AI w czterech poziomach ryzyka. Każdy poziom niesie inne obowiązki. Rozporządzenie dotyczy każdego, kto rozwija lub wdraża systemy AI w UE, niezależnie od siedziby dostawcy.

Dla firm doradczych najważniejszą rolą jest podmiot wdrażający (deployer): podmiot, który używa systemu AI pod swoją kontrolą. Jeśli wasza firma korzysta z Harvey, Luminance, Kira, CoCounsel lub nawet ChatGPT do pracy z klientami, jesteście podmiotem wdrażającym.

Cztery poziomy ryzyka:

2. Kluczowe terminy dla firm doradczych

1 sierpnia 2024
Akt o AI UE wchodzi w życie
Oficjalna publikacja. 24-miesięczny okres przejściowy dla większości przepisów.
2 lutego 2025
Zakazane praktyki egzekwowalne
Zakazane systemy AI muszą zostać wycofane. Dotyczy social scoringu, manipulacyjnej AI i większości form rozpoznawania emocji w miejscu pracy.
2 sierpnia 2025
Obowiązki dotyczące modeli GPAI
Dostawcy modeli AI ogólnego przeznaczenia (OpenAI, Anthropic, Google, Microsoft) muszą spełnić wymogi przejrzystości i dokumentacji. Podmioty wdrażające muszą zapewnić, że ich korzystanie z tych narzędzi spełnia zasady przejrzystości.
2 sierpnia 2026
Pełne egzekwowanie
Wszystkie przepisy egzekwowalne, w tym wymogi dla systemów AI wysokiego ryzyka. Oceny zgodności, systemy zarządzania ryzykiem i zarządzanie jakością muszą być wdrożone.
2 sierpnia 2027
Koniec ochrony dla istniejących systemów
Systemy AI już obecne na rynku lub w eksploatacji przed sierpniem 2026 mają dodatkowy rok na osiągnięcie pełnej zgodności.

Dlaczego to ważne teraz: Obowiązki GPAI (sierpień 2025) już obowiązują. Jeśli wasza firma korzysta z ChatGPT, Claude, Copilot lub innych narzędzi AI ogólnego przeznaczenia, powinniście już mieć wdrożone środki przejrzystości. Termin dla systemów wysokiego ryzyka (sierpień 2026) jest za 5 miesięcy.

3. Klasyfikacja ryzyka narzędzi, których już używacie

Poziom ryzyka zależy od przypadku użycia, nie od samego narzędzia. Ten sam system AI może być minimalnym ryzykiem w jednym kontekście i wysokim w innym.

Narzędzie AI / Przypadek użyciaPoziom ryzykaUzasadnienie
Przegląd dokumentów AI (Harvey, Luminance, Kira)OgraniczoneWyszukiwanie i analiza wspomagane przez AI. Człowiek podejmuje ostateczną decyzję. Obowiązek przejrzystości wobec klientów.
Tworzenie umów przez AIOgraniczoneAI generuje treści, które człowiek weryfikuje przed dostarczeniem. Obowiązuje przejrzystość.
AI dla decyzji HR (zatrudnianie, awanse)WysokieZałącznik III wyraźnie wymienia AI w zatrudnieniu i zarządzaniu pracownikami. Wymagana pełna zgodność wysokiego ryzyka.
Ocena kredytowa / analiza finansowa AIWysokieWymienione w Załączniku III. Wymagana ocena zgodności.
Chatboty do obsługi klientówOgraniczoneKonieczne ujawnienie, że użytkownik rozmawia z systemem AI.
Badania prawne AI (Westlaw AI, CoCounsel)MinimalneNarzędzie wewnętrzne wspierające profesjonalistów. Brak bezpośredniego wpływu na klientów.
Automatyczna księgowość / rozliczenia podatkowe AIOgraniczoneGeneruje wyniki weryfikowane przez człowieka. Przy autonomicznych decyzjach podatkowych potencjalnie wysokie ryzyko.
Rozpoznawanie emocji w rozmowach kwalifikacyjnychZakazaneRozpoznawanie emocji w miejscu pracy/edukacji jest zakazane. Od lutego 2025 r.
Due diligence wspomagane AIOgraniczoneAI analizuje dokumenty, człowiek decyduje. Może eskalować, jeśli AI autonomicznie ocenia transakcje.
Analiza predykcyjna wyników sprawWysokie (potencjalnie)Przy użyciu w wymiarze sprawiedliwości lub wpływie na decyzje sądowe podlega Załącznikowi III.

4. Wasze obowiązki jako podmiotu wdrażającego

Nawet gdy nie rozwijacie AI (tylko korzystacie z narzędzi innych), Akt o AI UE nakłada na podmioty wdrażające konkretne obowiązki.

Dla wszystkich poziomów ryzyka

Dla systemów AI wysokiego ryzyka

5. AI ogólnego przeznaczenia: ChatGPT, Copilot, Claude

Modele AI ogólnego przeznaczenia (GPAI) mają własną ścieżkę regulacyjną (Tytuł IIIa). Od sierpnia 2025 r. dostawcy GPAI muszą:

Jako podmiot wdrażający narzędzia GPAI, wasze obowiązki różnią się od obowiązków dostawcy. Musicie:

Praktyczna konsekwencja: Jeśli korzystacie z ChatGPT Enterprise, Microsoft Copilot, Claude lub podobnych narzędzi, powinniście już mieć pisemną politykę użytkowania AI, program szkoleniowy i klauzule ujawniające w umowach z klientami. Od sierpnia 2025 r. to nie najlepsza praktyka, lecz wymóg prawny.

6. Wskazówki sektorowe

Kancelarie prawne

Firmy konsultingowe

Biura rachunkowe i firmy audytorskie

7. Lista kontrolna compliance w 10 krokach

  1. 1
    Zinwentaryzujcie wszystkie systemy AI w użyciu
    Sporządźcie listę każdego narzędzia AI, którego firma używa. Od platform enterprise po indywidualne konta ChatGPT. Włącznie z shadow IT. Czego nie znacie, tego nie możecie dostosować do przepisów.
  2. 2
    Sklasyfikujcie każdy system według poziomu ryzyka
    Przyporządkujcie każde narzędzie do jego przypadku użycia i określcie poziom ryzyka. Poziom ryzyka wynika z przypadku użycia, nie z samego narzędzia.
  3. 3
    Sprawdźcie, czy nie ma zakazanych zastosowań
    Potwierdźcie, że żaden system AI nie jest używany do social scoringu, rozpoznawania emocji w pracy lub innych zakazanych praktyk. Egzekwowalne od lutego 2025 r.
  4. 4
    Opracujcie lub zaktualizujcie politykę użytkowania AI
    Zdokumentujcie zatwierdzone narzędzia, dozwolone przypadki użycia, wymagane zabezpieczenia i zakazane użycia. Przeglądajcie kwartalnie.
  5. 5
    Wdrożcie środki przejrzystości
    Zaktualizujcie umowy z klientami, regulaminy i komunikację wewnętrzną, aby ujawnić użycie AI. Chatboty potrzebują wyraźnego oznaczenia „AI". Dla materiałów wspomaganych AI dodajcie klauzule ujawniające.
  6. 6
    Ustalcie protokoły nadzoru ludzkiego
    Dla każdego systemu AI zdefiniujcie, kto weryfikuje wyniki, jak weryfikuje i jakie ma uprawnienia do nadpisania. Dla systemów wysokiego ryzyka wyznaczcie osoby z odpowiednimi kwalifikacjami.
  7. 7
    Przeprowadźcie szkolenie z kompetencji AI
    Artykuł 4 wymaga, aby wszyscy pracownicy korzystający z systemów AI mieli wystarczające zrozumienie. To oznacza ustrukturyzowane szkolenia, nie tylko okólnik.
  8. 8
    Zweryfikujcie przetwarzanie danych i prywatność
    Narzędzia AI przetwarzające dane osobowe muszą spełniać zarówno Akt o AI, jak i RODO. Zaktualizujcie umowy powierzenia i oceny skutków dla prywatności.
  9. 9
    Zweryfikujcie zgodność dostawcy
    Zażądajcie dokumentacji zgodności od dostawców narzędzi AI. Dla modeli GPAI potwierdźcie, że dostawca opublikował wymaganą dokumentację techniczną.
  10. 10
    Uruchomcie monitoring i raportowanie incydentów
    Ustalcie procesy wykrywania awarii, stronniczych wyników lub incydentów bezpieczeństwa. Dla systemów wysokiego ryzyka zgłaszajcie poważne incydenty dostawcy i organowi krajowemu.

8. Kary i egzekwowanie

NaruszenieMaksymalna kara
Zakazane praktyki AI (art. 5)35 mln EUR lub 7% globalnego rocznego obrotu
Obowiązki systemów AI wysokiego ryzyka15 mln EUR lub 3% globalnego rocznego obrotu
Podanie nieprawdziwych informacji organom7,5 mln EUR lub 1% globalnego rocznego obrotu

Dla MŚP obowiązują proporcjonalne limity. Jednak dla większości firm doradczych szkody wizerunkowe wynikające z braku zgodności mogą przewyższyć kary finansowe. Kancelaria prawna przyłapana na nieodpowiedzialnym użyciu AI ryzykuje utratę zaufania klientów i postępowania dyscyplinarne.

9. Pięć częstych nieporozumień

Nieporozumienie 1: „Używamy tylko ChatGPT, więc nie jesteśmy regulowani."

Nieprawda. Korzystanie z ChatGPT czyni was podmiotem wdrażającym system GPAI. Obowiązki przejrzystości mają zastosowanie.

Nieporozumienie 2: „Akt o AI dotyczy deweloperów AI, nie użytkowników."

Rozporządzenie tworzy obowiązki zarówno dla dostawców (deweloperów), jak i podmiotów wdrażających (użytkowników). Obowiązki podmiotów wdrażających są lżejsze, ale prawnie wiążące.

Nieporozumienie 3: „Nasz dostawca AI zajmuje się zgodnością."

Dostawcy realizują obowiązki dostawcy. Obowiązki podmiotu wdrażającego (przejrzystość, nadzór ludzki, szkolenia, raportowanie incydentów) należą do was.

Nieporozumienie 4: „Pełne egzekwowanie dopiero w 2026."

Częściowo prawda. Zakazane praktyki od lutego 2025 r. Obowiązki GPAI od sierpnia 2025 r. Wysokie ryzyko od sierpnia 2026 r. Jeśli dziś korzystacie z narzędzi GPAI, powinniście już być zgodni.

Nieporozumienie 5: „To dotyczy tylko firm w UE."

Akt o AI ma zasięg eksterytorialny. Jeśli wyniki waszego systemu AI są używane w UE, rozporządzenie ma zastosowanie, niezależnie od siedziby firmy.

10. Co zrobić w tym kwartale

  1. Dokończcie inwentaryzację AI (1 tydzień). Najwyższy priorytet. Czego nie znacie, tym nie możecie zarządzać.
  2. Opublikujcie politykę użytkowania AI (2 tygodnie). Nawet podstawowa polityka stawia was przed większością firm.
  3. Zaktualizujcie umowy z klientami (1 tydzień). Dodajcie klauzule ujawniające użycie AI.
  4. Zaplanujcie szkolenie z kompetencji AI (ciągłe). Zacznijcie od 2-godzinnej sesji. Powtarzajcie kwartalnie.
  5. Zidentyfikujcie systemy AI wysokiego ryzyka (2 tygodnie). Jeśli istnieją (najczęściej w HR), rozpocznijcie proces oceny zgodności.

Firmy, które ruszą pierwsze, zdefiniują standard. W każdym cyklu regulacyjnym pierwsi wyznaczają poziom tego, co oznacza „rozsądna zgodność". Spóźnieni przejmują standard, nie mając wpływu na jego kształt. Dla firm doradczych, gdzie zaufanie jest produktem, postrzeganie jako lidera odpowiedzialnego użycia AI tworzy przewagę konkurencyjną trudną do odtworzenia.

Oceńcie gotowość AI waszej firmy

Nasze 3-minutowe badanie identyfikuje luki w zgodności i tworzy spersonalizowany plan działania.

Rozpocznij badanie

Powiązane artykuły