Najważniejsze informacje dla biznesu

Jest projekt ustawy dotyczącej sztucznej inteligencji. Ma nas przed nią chronić

Opublikowano projekt ustawy o systemach sztucznej inteligencji (SSI), który zakłada powołanie nowego organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten ma nadzorować rynek AI i współpracować z innymi instytucjami publicznymi w zakresie sztucznej inteligencji.

Ustawa ma na celu ustanowienie krajowego nadzoru nad systemami AI zgodnie z wymogami unijnymi. Akt o AI, będący pierwszym na świecie kompleksowym prawem regulującym sektor sztucznej inteligencji, obowiązuje od 1 sierpnia 2024 roku i stawia przed państwami członkowskimi UE konkretne zadania dotyczące nadzoru nad systemami AI.

W ocenie Ministerstwa Cyfryzacji, w Polsce nie funkcjonuje obecnie instytucja spełniająca wymogi określone w rozporządzeniu 2024/1689 (ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmian rozporządzonych) zarówno pod względem statusu prawnego, jak i kompetencji.

Dlatego zostało zaproponowane  powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wzorowanej na modelu Komisji Nadzoru Finansowego. Podobne organy już funkcjonują lub są tworzone w innych krajach, m.in. w Hiszpanii i Włoszech.

Struktura i zadania Komisji

Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji będzie kierował przewodniczący, wyłaniany w drodze konkursu i powoływany przez premiera. Projekt ustawy przewiduje, że przewodniczący musi wykazać się znaczącym dorobkiem naukowym w dziedzinie AI lub prawa.

Komisja będzie liczyła także dwóch zastępców, powoływanych na wniosek przewodniczącego, oraz przedstawicieli różnych instytucji publicznych, w tym Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych czy Urzędu Ochrony Konkurencji i Konsumentów.

Do zadań Komisji będzie należało m.in. rozpatrywanie wniosków o dopuszczenie do obrotu systemów AI wysokiego ryzyka, przyjmowanie zgłoszeń o incydentach związanych z AI oraz współpraca z organami nadzoru rynku. Komisja będzie musiała również rozpatrywać skargi osób poddanych działaniu systemów AI oraz prowadzić zdalne kontrole podmiotów zobowiązanych do przestrzegania przepisów Aktu o AI. W uzasadnionych przypadkach kontrole będą mogły odbywać się w siedzibie danego podmiotu.

Ważnym narzędziem Komisji będzie możliwość nakładania kar administracyjnych. Maksymalna kara przewidziana przez te przepisy wynosi 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorcy.

Harmonogram wdrażania Aktu o AI w Polsce

Wprowadzenie pełnych przepisów do polskiego prawa  przebiega etapowo. Część przepisów, m.in. dotyczących zakazu stosowania szczególnie niebezpiecznych systemów AI, zacznie obowiązywać w lutym 2025 roku.

Kolejne przepisy, kluczowe dla nadzoru nad systemami AI, wejdą w życie w sierpniu 2025 roku, a przepisy odnoszące się do systemów wysokiego ryzyka będą stopniowo obowiązywać od sierpnia 2026 i sierpnia 2027 roku.

Opublikowano projekt ustawy o systemach sztucznej inteligencji (SSI), który zakłada powołanie nowego organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten ma nadzorować rynek AI i współpracować z innymi instytucjami publicznymi w zakresie sztucznej inteligencji.

Ustawa ma na celu ustanowienie krajowego nadzoru nad systemami AI zgodnie z wymogami unijnymi. Akt o AI, będący pierwszym na świecie kompleksowym prawem regulującym sektor sztucznej inteligencji, obowiązuje od 1 sierpnia 2024 roku i stawia przed państwami członkowskimi UE konkretne zadania dotyczące nadzoru nad systemami AI.

W ocenie Ministerstwa Cyfryzacji, w Polsce nie funkcjonuje obecnie instytucja spełniająca wymogi określone w rozporządzeniu 2024/1689 (ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmian rozporządzonych) zarówno pod względem statusu prawnego, jak i kompetencji.

Dlatego zostało zaproponowane  powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wzorowanej na modelu Komisji Nadzoru Finansowego. Podobne organy już funkcjonują lub są tworzone w innych krajach, m.in. w Hiszpanii i Włoszech.

Struktura i zadania Komisji

Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji będzie kierował przewodniczący, wyłaniany w drodze konkursu i powoływany przez premiera. Projekt ustawy przewiduje, że przewodniczący musi wykazać się znaczącym dorobkiem naukowym w dziedzinie AI lub prawa.

Komisja będzie liczyła także dwóch zastępców, powoływanych na wniosek przewodniczącego, oraz przedstawicieli różnych instytucji publicznych, w tym Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych czy Urzędu Ochrony Konkurencji i Konsumentów.

Do zadań Komisji będzie należało m.in. rozpatrywanie wniosków o dopuszczenie do obrotu systemów AI wysokiego ryzyka, przyjmowanie zgłoszeń o incydentach związanych z AI oraz współpraca z organami nadzoru rynku. Komisja będzie musiała również rozpatrywać skargi osób poddanych działaniu systemów AI oraz prowadzić zdalne kontrole podmiotów zobowiązanych do przestrzegania przepisów Aktu o AI. W uzasadnionych przypadkach kontrole będą mogły odbywać się w siedzibie danego podmiotu.

Ważnym narzędziem Komisji będzie możliwość nakładania kar administracyjnych. Maksymalna kara przewidziana przez te przepisy wynosi 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorcy.

Harmonogram wdrażania Aktu o AI w Polsce

Wprowadzenie pełnych przepisów do polskiego prawa  przebiega etapowo. Część przepisów, m.in. dotyczących zakazu stosowania szczególnie niebezpiecznych systemów AI, zacznie obowiązywać w lutym 2025 roku.

Kolejne przepisy, kluczowe dla nadzoru nad systemami AI, wejdą w życie w sierpniu 2025 roku, a przepisy odnoszące się do systemów wysokiego ryzyka będą stopniowo obowiązywać od sierpnia 2026 i sierpnia 2027 roku.

Najnowsze artykuły