Opublikowano projekt ustawy o systemach sztucznej inteligencji (SSI), który zakłada powołanie nowego organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten ma nadzorować rynek AI i współpracować z innymi instytucjami publicznymi w zakresie sztucznej inteligencji.
Ustawa ma na celu ustanowienie krajowego nadzoru nad systemami AI zgodnie z wymogami unijnymi. Akt o AI, będący pierwszym na świecie kompleksowym prawem regulującym sektor sztucznej inteligencji, obowiązuje od 1 sierpnia 2024 roku i stawia przed państwami członkowskimi UE konkretne zadania dotyczące nadzoru nad systemami AI.
W ocenie Ministerstwa Cyfryzacji, w Polsce nie funkcjonuje obecnie instytucja spełniająca wymogi określone w rozporządzeniu 2024/1689 (ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmian rozporządzonych) zarówno pod względem statusu prawnego, jak i kompetencji.
Dlatego zostało zaproponowane powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wzorowanej na modelu Komisji Nadzoru Finansowego. Podobne organy już funkcjonują lub są tworzone w innych krajach, m.in. w Hiszpanii i Włoszech.
Struktura i zadania Komisji
Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji będzie kierował przewodniczący, wyłaniany w drodze konkursu i powoływany przez premiera. Projekt ustawy przewiduje, że przewodniczący musi wykazać się znaczącym dorobkiem naukowym w dziedzinie AI lub prawa.
Komisja będzie liczyła także dwóch zastępców, powoływanych na wniosek przewodniczącego, oraz przedstawicieli różnych instytucji publicznych, w tym Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych czy Urzędu Ochrony Konkurencji i Konsumentów.
Do zadań Komisji będzie należało m.in. rozpatrywanie wniosków o dopuszczenie do obrotu systemów AI wysokiego ryzyka, przyjmowanie zgłoszeń o incydentach związanych z AI oraz współpraca z organami nadzoru rynku. Komisja będzie musiała również rozpatrywać skargi osób poddanych działaniu systemów AI oraz prowadzić zdalne kontrole podmiotów zobowiązanych do przestrzegania przepisów Aktu o AI. W uzasadnionych przypadkach kontrole będą mogły odbywać się w siedzibie danego podmiotu.
Ważnym narzędziem Komisji będzie możliwość nakładania kar administracyjnych. Maksymalna kara przewidziana przez te przepisy wynosi 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorcy.
Harmonogram wdrażania Aktu o AI w Polsce
Wprowadzenie pełnych przepisów do polskiego prawa przebiega etapowo. Część przepisów, m.in. dotyczących zakazu stosowania szczególnie niebezpiecznych systemów AI, zacznie obowiązywać w lutym 2025 roku.
Kolejne przepisy, kluczowe dla nadzoru nad systemami AI, wejdą w życie w sierpniu 2025 roku, a przepisy odnoszące się do systemów wysokiego ryzyka będą stopniowo obowiązywać od sierpnia 2026 i sierpnia 2027 roku.