Eksperyment Off Radia Kraków, polegający na stworzeniu „wywiadu” z nieżyjącą Wisławą Szymborską, wzbudził w Polsce oburzenie. „Rozmowa”, w której dziennikarka wygenerowana przez sztuczną inteligencję rozmawiała z cyfrowo odtworzoną noblistką, wywołała debatę nie tylko na temat etycznej strony takiego postępowania, ale także prawa i przyszłości AI w mediach.
Jednym z głosów oburzenia, wobec tego eksperymentu, był dr hab. Dominik Batorski, socjolog i analityk danych UW, który widzi w takich inicjatywach pewien postęp technologiczny, ale zaznacza, że regulacje prawne nie nadążają za rozwojem AI.
„Jesteśmy na początku tej drogi. Potrzeba było lat, aby stworzyć prawo o ruchu drogowym, tak samo będzie z AI” – mówił Batorski w serwisie „naTemat”. W jego ocenie, kluczowe jest jasne oznakowanie, że dane treści zostały wygenerowane przez algorytm.
Batorski zauważa także moralny problem w „wywiadzie” z nieżyjącą poetką. „To podszywanie się pod osobę, której zgody na to nie ma” – stwierdza, zaznaczając, że mimo zgody Michała Rusinka, prezesa Fundacji Wisławy Szymborskiej, może to naruszać dobre imię zmarłej. Jednak gdyby rodzina Szymborskiej wyraziła zgodę, Batorski nie widzi w tym problemu, nawiązując do podobnych sytuacji, jak odtworzenie głosu Jerzego Stuhra w filmie.
Rusinek broni rozmowy z noblistką
„To jest rodzaj żartu, który też pokazuje, jak blisko nas jest zupełnie inna rzeczywistość” – powiedział zaś dla PAP, Michał Rusinek.
Wyjawił on, że radio zapytało go o zgodę na przeprowadzenie tego eksperymentalnego „wywiadu” na co się zgodził. Rusinek usprawiedliwił swoją decyzję tym, że zdarzało mu się już akceptować bardziej radykalne inicjatywy (na przykład zeszłoroczny hologram noblistki na targu Książki w Warszawie).
„Potraktowałem to jako dotarcie z przypomnieniem o kimś takim jak Wisława Szymborska do ludzi, którzy posługują się nowymi technologiami, interesują ich nowe technologie” – stwierdził.
Naruszenie dóbr osobistych?
Nie każdy jednak podziela jego swobodne podejście do sprawy. Dr Michał Markiewicz, prawnik specjalizujący się w prawie własności intelektualnej tłumaczył PAP, że sztuczna inteligencja, odtwarzając głos i wizerunek zmarłej osoby, ingeruje w jej dobra osobiste.
„Człowiek, słysząc rozpoznawalny głos, jest skłonny nadać słowom inne znaczenie i trudno mu oderwać te treści od określonej osoby” – powiedział dr Markiewicz, podkreślając, że osoby zmarłe nie mogą same bronić swoich interesów.
W jego opinii, taki sposób wykorzystania AI może naruszać dobra osobiste, zwłaszcza gdy brakuje zgody bliskich zmarłego. Prawnik zwraca uwagę na dwa aspekty. Po pierwsze, jeśli odbiorcy nie są informowani, że głos i wypowiedzi zostały wygenerowane przez AI, może to prowadzić do poważnego wprowadzenia ich w błąd.
Po drugie, nawet jeśli informacja taka jest podana, nie oznacza to, że nie dochodzi do naruszenia dóbr osobistych zmarłej osoby.
„Nawet w sytuacji poinformowania o sposobie uzyskania efektu wypowiedzi nieżyjącej osoby dochodzi do nieuprawnionego wkroczenia w chronione prawem interesy pozostających przy życiu osób bliskich zmarłej” – dodał prawnik.