icon to english version of biznesalert
EN
Najważniejsze informacje dla biznesu
icon to english version of biznesalert
EN

Jest projekt ustawy dotyczącej sztucznej inteligencji. Ma nas przed nią chronić

Opublikowano projekt ustawy o systemach sztucznej inteligencji (SSI), który zakłada powołanie nowego organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten ma nadzorować rynek AI i współpracować z innymi instytucjami publicznymi w zakresie sztucznej inteligencji.

Ustawa ma na celu ustanowienie krajowego nadzoru nad systemami AI zgodnie z wymogami unijnymi. Akt o AI, będący pierwszym na świecie kompleksowym prawem regulującym sektor sztucznej inteligencji, obowiązuje od 1 sierpnia 2024 roku i stawia przed państwami członkowskimi UE konkretne zadania dotyczące nadzoru nad systemami AI.

W ocenie Ministerstwa Cyfryzacji, w Polsce nie funkcjonuje obecnie instytucja spełniająca wymogi określone w rozporządzeniu 2024/1689 (ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmian rozporządzonych) zarówno pod względem statusu prawnego, jak i kompetencji.

Dlatego zostało zaproponowane  powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wzorowanej na modelu Komisji Nadzoru Finansowego. Podobne organy już funkcjonują lub są tworzone w innych krajach, m.in. w Hiszpanii i Włoszech.

Struktura i zadania Komisji

Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji będzie kierował przewodniczący, wyłaniany w drodze konkursu i powoływany przez premiera. Projekt ustawy przewiduje, że przewodniczący musi wykazać się znaczącym dorobkiem naukowym w dziedzinie AI lub prawa.

Komisja będzie liczyła także dwóch zastępców, powoływanych na wniosek przewodniczącego, oraz przedstawicieli różnych instytucji publicznych, w tym Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych czy Urzędu Ochrony Konkurencji i Konsumentów.

Do zadań Komisji będzie należało m.in. rozpatrywanie wniosków o dopuszczenie do obrotu systemów AI wysokiego ryzyka, przyjmowanie zgłoszeń o incydentach związanych z AI oraz współpraca z organami nadzoru rynku. Komisja będzie musiała również rozpatrywać skargi osób poddanych działaniu systemów AI oraz prowadzić zdalne kontrole podmiotów zobowiązanych do przestrzegania przepisów Aktu o AI. W uzasadnionych przypadkach kontrole będą mogły odbywać się w siedzibie danego podmiotu.

Ważnym narzędziem Komisji będzie możliwość nakładania kar administracyjnych. Maksymalna kara przewidziana przez te przepisy wynosi 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorcy.

Harmonogram wdrażania Aktu o AI w Polsce

Wprowadzenie pełnych przepisów do polskiego prawa  przebiega etapowo. Część przepisów, m.in. dotyczących zakazu stosowania szczególnie niebezpiecznych systemów AI, zacznie obowiązywać w lutym 2025 roku.

Kolejne przepisy, kluczowe dla nadzoru nad systemami AI, wejdą w życie w sierpniu 2025 roku, a przepisy odnoszące się do systemów wysokiego ryzyka będą stopniowo obowiązywać od sierpnia 2026 i sierpnia 2027 roku.

Opublikowano projekt ustawy o systemach sztucznej inteligencji (SSI), który zakłada powołanie nowego organu – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Organ ten ma nadzorować rynek AI i współpracować z innymi instytucjami publicznymi w zakresie sztucznej inteligencji.

Ustawa ma na celu ustanowienie krajowego nadzoru nad systemami AI zgodnie z wymogami unijnymi. Akt o AI, będący pierwszym na świecie kompleksowym prawem regulującym sektor sztucznej inteligencji, obowiązuje od 1 sierpnia 2024 roku i stawia przed państwami członkowskimi UE konkretne zadania dotyczące nadzoru nad systemami AI.

W ocenie Ministerstwa Cyfryzacji, w Polsce nie funkcjonuje obecnie instytucja spełniająca wymogi określone w rozporządzeniu 2024/1689 (ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmian rozporządzonych) zarówno pod względem statusu prawnego, jak i kompetencji.

Dlatego zostało zaproponowane  powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wzorowanej na modelu Komisji Nadzoru Finansowego. Podobne organy już funkcjonują lub są tworzone w innych krajach, m.in. w Hiszpanii i Włoszech.

Struktura i zadania Komisji

Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji będzie kierował przewodniczący, wyłaniany w drodze konkursu i powoływany przez premiera. Projekt ustawy przewiduje, że przewodniczący musi wykazać się znaczącym dorobkiem naukowym w dziedzinie AI lub prawa.

Komisja będzie liczyła także dwóch zastępców, powoływanych na wniosek przewodniczącego, oraz przedstawicieli różnych instytucji publicznych, w tym Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych czy Urzędu Ochrony Konkurencji i Konsumentów.

Do zadań Komisji będzie należało m.in. rozpatrywanie wniosków o dopuszczenie do obrotu systemów AI wysokiego ryzyka, przyjmowanie zgłoszeń o incydentach związanych z AI oraz współpraca z organami nadzoru rynku. Komisja będzie musiała również rozpatrywać skargi osób poddanych działaniu systemów AI oraz prowadzić zdalne kontrole podmiotów zobowiązanych do przestrzegania przepisów Aktu o AI. W uzasadnionych przypadkach kontrole będą mogły odbywać się w siedzibie danego podmiotu.

Ważnym narzędziem Komisji będzie możliwość nakładania kar administracyjnych. Maksymalna kara przewidziana przez te przepisy wynosi 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorcy.

Harmonogram wdrażania Aktu o AI w Polsce

Wprowadzenie pełnych przepisów do polskiego prawa  przebiega etapowo. Część przepisów, m.in. dotyczących zakazu stosowania szczególnie niebezpiecznych systemów AI, zacznie obowiązywać w lutym 2025 roku.

Kolejne przepisy, kluczowe dla nadzoru nad systemami AI, wejdą w życie w sierpniu 2025 roku, a przepisy odnoszące się do systemów wysokiego ryzyka będą stopniowo obowiązywać od sierpnia 2026 i sierpnia 2027 roku.

Najnowsze artykuły