Rozwój sztucznej inteligencji jest nieunikniony. Dla przykładu w Chinach sztuczna inteligencja w postaci punktów pomiaru społecznych funkcjonuje już dawno i nikt tego nie ograniczy. Niezależnie od ceny tego zjawiska, jeżeli będziemy stawiać sobie sztuczne bariery, możemy spaść na sam koniec rozwoju AI – wyjaśnia w rozmowie z BiznesAlert.pl Przemysław Szulecki, ekspert ds. cyberbezpieczeństwa i bezpieczeństwa informacji z fundacji imienia Kazimierza Pułaskiego.
BiznesAlert.pl: W jakim kierunku zmierzamy jeśli chodzi o rozwój sztucznej inteligencji? Będziemy ją lepiej kontrolować, czy pozwolimy na jeszcze szybszy rozwój?
Przemysław Szulecki: Sztuczna inteligencja (ang. artificial intelligence, AI) będzie sama się rozwijała przy udziale ludzi. Podstawą uczenia maszynowego (ang. machine-learning) jest samorozwój. Pytaniem jest: jakie narzucimy ramy i gdzie postawimy granice tego rozwoju i czy należy je stawiać?
Uważam, że należy dalej rozwijać AI jako technologię i narzędzie, które może być używane wielowarstwowo w różnych sytuacjach. Z drugiej strony należy pamiętać, że kontrola jest podstawą zaufania, szczególnie w przypadku nowej technologii, która u podstaw ma samorozwój. Musimy mieć mierniki i punkty kontrolne dla sztucznej inteligencji, aby nie rozrosła się ona w niekontrolowanym kierunku, który może zagrażać człowiekowi.
Proszę również pamiętać, że ten kto ma przewagę w technologii, ten będzie miał przewagę w obszarze biznesowym i cyberbezpieczeństwa w kolejnych latach, szczególnie jeśli weźmiemy pod uwagę możliwości jakie niesie ze sobą wykorzystanie AI.
Czy Unia Europejska szykuje odpowiedź na brak kontroli nad sztuczną inteligencją?
Obecnie w tym zakresie są prowadzone odpowiednie prace. Jednak należy wspomnieć, że kraje członkowskie Unii Europejskiej z uwagi na różne interesy mogą być niechętne do wspólnego stanowiska, żeby wdrożyć konkretne ramy prawne.
Z drugiej strony mogą się pojawić wytyczne i rekomendacje Komisji Europejskiej, ale wątpię, że zostaną wprowadzone sztywne przepisy regulujące rozwój AI w krajach członkowskich z uwagi na zróżnicowane interesy krajów członkowskich i firm w nich działających.
Jak ocenia Pan działania Polski w zakresie kontroli AI?
Jest to złożona sprawa. Interesujący jest fakt, że niektóre uczelnie w Polsce bacznie przyglądają się wykorzystywaniu słynnego już ChatuGPT. Już teraz możliwym jest, że sztuczna inteligencja wygeneruje studentom pracę licencjacką lub magisterską oraz przetłumaczy tekst na język polski czy sparafrazuje inny tekst.
W Polsce mamy fundacje, które zajmują się zwalczaniem dezinformacji w Internecie. INFO OPS POLSKA bada, żeby wszystkie fake newsy, które pojawiają się w przestrzeni internetu, były szybko „wyławiane”. Trzeba mieć też świadomość iż wiele z tych fake newsów jest generowana w sposób automatyczny przez AI i narzędzia pochodne.
Z uwagi na to, że Polska posiada bardzo dużo inżynierów i ekspertów w obszarze szeroko rozumianej informatyki, nie powinniśmy tak bardzo ograniczać rozwoju AI, ponieważ możliwości jej wykorzystania w biznesie, cyberbezpieczeństwie i innych obszarach istotnych dla nas są nieograniczone. Oczywiście wszystko zależy, czy będziemy chcieli ją wykorzystać do zabezpieczania naszych interesów, czy poszukiwania słabych punktów w systemach innych krajów. Ważnym aspektem jest to, w jaki sposób będziemy opracowywać ramy prawne pod kątem bezpieczeństwa kluczowych segmentów.
Rozwój sztucznej inteligencji jest nieunikniony. Dla przykładu w Chinach sztuczna inteligencja w postaci punktów pomiaru społecznych funkcjonuje już dawno i nikt tego nie ograniczy. Niezależnie od ceny tego zjawiska, jeżeli będziemy stawiać sobie sztuczne bariery, możemy spaść na sam koniec rozwoju AI.
Jakie zagrożenia niesie ze sobą niekontrolowany rozwój AI?
Jest wiele katastroficznych scenariuszy, gdzie sztuczna inteligencja przejmuje władzę nad światem i uznaje człowieka za przeszkodę. Należy jednak zastanowić się nad wprowadzeniem „bezpiecznika biologicznego”, tak aby maszyna nie była w stanie skrzywdzić człowieka. Jednak tą kwestię należy skierować do inżynierów i programistów.
Obecnie Tesla wykorzystuje machine-learning w systemach autonomicznych samochodów, tak aby taksówki Ubera mogły jechać bez kierowcy. Pozytywnym aspektem tego zjawiska jest uzupełnianie braku kadr na rynku, również w branży transportowej. Jest to dobry przykład wykorzystania AI, ale potencjalne zagrożenie pojawi się, gdy sztuczna inteligencja wybierze inną trasę i pojedzie inną trasą, która może zniszczyć środowisko, a także zagrozić człowiekowi.
Jeżeli pozwolimy AI na podjęcie decyzji, już wkraczamy w niebezpieczną strefę. Analiza potrzeb zwykłego człowieka powinna być podstawą, jak należy wdrażać sztuczną inteligencję w rzeczywistość, tak aby przede wszystkim pomagać, a nie szkodzić.
Z drugiej strony sztuczna inteligencja może okazać się mieczem obosiecznym dla ludzkości. W tym aspekcie uważam, że przydałoby się na wdrożenie prawa na wzór Konwencji Genewskiej, która określa ramy prowadzenia działań zbrojnych ale w kontekście używania oprogramowania typu AI i pochodnych. Obecnie wielkim pytaniem jest: gdzie postawić granice rozwoju AI oraz czy rzeczywiście uda się postawić taką granicę albo czy w ogóle powinniśmy taką granicę stawiać?
Rozmawiał Jacek Perzyński
Perzyński: Chiny zostały w tyle w rozwoju AI, ale chcą nią kontrolować społeczeństwo