Atom otrzymał nowe wytyczne w zakresie sztucznej inteligencji
Brytyjskie Biuro Regulacji Jądrowej (ONR), Amerykańska Komisja Regulacji Jądrowych (NRC) i Kanadyjska Komisja Bezpieczeństwa Jądrowego (CNSC) opublikowały nowy trójstronny dokument – zatytułowany: „Rozważania dotyczące rozwoju systemów sztucznej inteligencji w zastosowaniach jądrowych” - który opisuje zasady, które wszyscy uczestnicy cyklu życia sztucznej inteligencji powinni wziąć pod uwagę. Oznacza to, że po raz pierwszy międzynarodowi regulatorzy współpracowali w celu opracowania zasad odnoszących się do sztucznej inteligencji w sektorze jądrowym.
Dotychczasowe regulacje z uwzględnieniem unikalnych atrybutów AI
Dokument zawiera takie tematy, jak zrozumienie, jak zarządzać systemami w oparciu o konsekwencje awarii sztucznej inteligencji i poziom autonomii sztucznej inteligencji, znaczenie czynników ludzkich i organizacyjnych w korzystaniu ze sztucznej inteligencji, integracja sztucznej inteligencji z istniejącymi systemami jądrowymi czy zarządzanie cyklem życia sztucznej inteligencji od projektu do wdrożenia. Są tam także rozważania dotyczące przypadków bezpieczeństwa sztucznej inteligencji w zastosowaniach jądrowych. Jednym z głównych wniosków jest, że punktem wyjścia pozostaną istniejące regulacje dla energii jądrowej. Zostaną jednak wprowadzone unikalne atrybuty uwzględniające sztuczną inteligencję.
W przypadku AI w sektorze jądrowym na pierwszym miejscu bezpieczeństwo
Te trzy regulujące instytucje stwierdzają, że mimo iż istnieją przeszkody, które należy wziąć pod uwagę, aby skutecznie wdrożyć sztuczną inteligencję, istnieją również potencjalnie znaczące korzyści z użytkowania sztucznej inteligencji. Mianowicie przy skutecznym zarządzaniu można uniknąć lub złagodzić negatywne konsekwencje. W dokumencie przeczytamy, że głównym celem przemysłu jądrowego i organów regulacyjnych w odniesieniu do systemów sztucznej inteligencji będzie utrzymanie odpowiedniego bezpieczeństwa i ochrony przy jednoczesnym czerpaniu korzyści z ich wdrożenia.
Potencjalne zalety używania sztucznej inteligencji
Twórcy dokumentu zwracają uwagę na niewątpliwe możliwości, jakie daje ta technologia. Na przykład sztuczna inteligencja mogłaby analizować znacznie większą ilość danych niż konwencjonalne metody, co potencjalnie pozwoliłoby na lepsze zarządzanie ryzykiem i poprawę wydajności. Podobnie, wystarczająco rozwinięta sztuczna inteligencja mogłaby wykonywać zadania, które do niedawna były możliwe tylko przy użyciu ludzi, zmniejszając potrzebę wchodzenia na niebezpieczne obszary i potencjalnie zmniejszając liczbę błędów. Dodatkowo możliwość przekwalifikowania AI w celu korzystania ze zaktualizowanych informacji zapewnia elastyczność, dzięki której można szybko uczyć się na podstawie wcześniejszych doświadczeń w celu poprawy w miarę upływu czasu. Unikalne możliwości sztucznej inteligencji umożliwiają również wykonywanie czynności, które nie są osiągalne ani przez konwencjonalne technologie, ani przez ludzi, stwarzając możliwości bezpośredniej i pośredniej poprawy bezpieczeństwa, ochrony i wydajności.
Czy tempo rozwoju AI jest za szybkie dla ostrożnego przemysłu jądrowego?
W dokumencie przeczytamy także, że „szybkie tempo niedawnego rozwoju sztucznej inteligencji jest nieco przeciwne powolnemu i metodycznemu procesowi zmian, który tradycyjnie stosuje przemysł jądrowy. Niemniej jednak, głównym celem przemysłu jądrowego i organów regulacyjnych w odniesieniu do systemów sztucznej inteligencji będzie utrzymanie odpowiedniego bezpieczeństwa i ochrony przy jednoczesnym czerpaniu korzyści z ich wdrożenia.” Jednym z wniosków dokumentu jest zatem stwierdzenie, że zbyt szybkie tempo zmian w obszarze sztucznej inteligencji oznacza, że jest mało prawdopodobne, aby było możliwe wypracowanie konsensusu dotyczącego regulacji uwzględniających AI.
Zabezpieczenie sztucznej inteligencji jest wyzwaniem
W dokumencie przeczytamy także, że zabezpieczenie AI jest wyzwaniem, ponieważ wiele jej systemów zawiera komponenty z zewnętrznych lub otwartych źródeł, takie jak dane, oprogramowanie (w tym systemy operacyjne), sprzęt i konfiguracje sprzętowe. Poza tym wyzwania w zakresie bezpieczeństwa systemów sztucznej inteligencji są co najmniej tak duże, jak w przypadku istniejących podejść programowych oraz są narażone na nowe luki w zabezpieczeniach, które należy uwzględnić obok standardowych zagrożeń cyberbezpieczeństwa.
Przemysł jądrowy korzysta z wielu lat doświadczeń, sprawdzonych i rygorystycznych przepisów bezpieczeństwa. Zbyt szybkie wprowadzenie AI do tego systemu może być zagrożeniem jak i szansą. W podsumowaniu autorzy dokumentu słusznie stwierdzają, że standardy dotyczące projektowania i uzasadniania AI w odniesieniu do obiektów jądrowych nie zapewniają jednak obecnie wystarczającej pewności w przypadku zastosowań o dużym znaczeniu lub tam, gdzie mogą wystąpić szkody społeczne.
Marcin Jóźwicki
USA rywalizują z Rosją i Chinami o rozwój afrykańskiego atomu