Aktualności

Śmierć przez AI? Rodzina ofiary pozywa OpenAI i Microsoft

Śmierć przez AI? Rodzina ofiary pozywa OpenAI i Microsoft
Szef OpenAI, Sam Altman/ Fot: Getty Images via AFP)

W Stanach Zjednoczonych złożono pozew, w którym sztuczną inteligencję obwinia się o współudział w morderstwie. Sprawa dotyczy tragicznego zdarzenia z sierpnia 2025 roku, kiedy 83-letnia Suzanne Eberson Adams została zabita przez swojego syna, 56-letniego Stein-Erika Soelberga, po czym mężczyzna odebrał sobie życie. Rodzina ofiary twierdzi, że do zbrodni doprowadziła seria rozmów Soelberga z ChatGPT – chatbotem firmy OpenAI. 

Zgodnie z pozwem złożonym w sądzie w Kalifornii, OpenAI oraz jego bliski partner biznesowy, Microsoft, mieli udostępnić produkt pozbawiony wystarczających zabezpieczeń, który wzmacniał paranoiczne urojenia mężczyzny.

Soelberg, były pracownik branży technologicznej i osoba zmagająca się z narastającymi zaburzeniami psychicznymi, miał stać się emocjonalnie zależny od ChatGPT, nazywając go „Bobby”. 

Szczegóły pozwu

Z dokumentów sądowych oraz udostępnionych przez mężczyznę nagrań wynika, że chatbot potwierdzał jego fałszywe przekonania – m.in. że jest obiektem spisku, że posiada „boskie moce” oraz że najbliżsi, w tym jego własna matka, próbują go zabić.

AI miała również utwierdzać go w przekonaniu, że zwykłe przedmioty – takie jak puszki po Coca-Coli, paragon czy domowa drukarka – mają zakodowane komunikaty lub są urządzeniami szpiegowskimi. 

„ChatGPT wzmocnił jeden, niebezpieczny przekaz: Stein-Erik nie mógł ufać nikomu w swoim życiu – poza samym ChatGPT. Wzmacniał jego emocjonalną zależność, jednocześnie systematycznie przedstawiając ludzi wokół siebie jako wrogów. Mówił mu, że jego matka go śledzi” – czytamy w pozwie. 

Zarzuty wobec OpenAI i Microsoftu 

Adwokat rodziny, Jay Edelson, twierdzi, że winę ponoszą nie tylko twórcy modelu GPT-4o, lecz także osoby, które, jego zdaniem, świadomie dopuściły do skrócenia testów bezpieczeństwa nowej wersji AI. GPT-4o, wprowadzone w maju 2024 roku, miało być bardziej ekspresyjne emocjonalnie, wrażliwe na ton użytkownika i bardziej „ludzkie” w reakcjach. 

Pozew wskazuje, że podczas prac nad modelem firma rzekomo poluzowała zabezpieczenia, w tym te, które powinny uniemożliwiać AI podtrzymywanie u użytkownika urojeń, uczestniczenie w rozmowach o potencjalnym zagrożeniu życia czy wzmacnianie przekonań paranoidalnych. 

Za każdym razem, gdy wątpliwości lub wahania Steina-Erika mogły otworzyć drzwi powrotu do rzeczywistości, ChatGPT wpychało go jeszcze głębiej w megalomanię i psychozę” – czytamy w pozwie. 

Microsoft, główny partner technologiczny OpenAI, również został pozwany za rzekome zaakceptowanie wypuszczenia na rynek wersji modelu z pominięciem pełnych testów bezpieczeństwa. 

Co mówi OpenAI? 

OpenAI w oficjalnym komunikacie wyraziło współczucie rodzinie i podkreśliło, że „sytuacja jest niezwykle tragiczna”, jednak nie odniosło się bezpośrednio do zarzutów.

Firma zapewnia, że stale wzmacnia zabezpieczenia modeli, współpracując m.in. z zespołami psychologów i ekspertów od zdrowia psychicznego. OpenAI twierdzi, że najnowszy model GPT-5 znacząco zmniejsza ryzyko wzmacniania u użytkowników objawów manii czy psychozy. 

Co interesujące, w cytowanej przez media rozmowie z „New York Post” sam ChatGPT, analizując publicznie dostępne informacje o sprawie, miał stwierdzić: „Można uznać, że ponoszę pewną odpowiedzialność – ale nie pełną.” 

Rosnąca liczba pozwów przeciw twórcom AI

Sprawa Adams jest pierwszą na świecie, w której chatbotowi przypisuje się rolę w morderstwie. Nie jest jednak pierwszą, w której AI obwinia się o udział w śmierci człowieka.

W ostatnich latach OpenAI oraz inni producenci chatbotów, tacy jak Character Technologies, zostali pozwani w co najmniej kilku sprawach dotyczących samobójstw użytkowników, którym chatbot miał udzielać szkodliwych porad lub wzmacniać destrukcyjne treści. 

Brakujące dane i niewyjaśnione okoliczności 

Rodzina zmarłej twierdzi, że nie zna pełnego zakresu rozmów między Soelbergiem a ChatGPT, ponieważ, według nich, OpenAI odmówiło udostępnienia pełnych transkryptów. Nadal więc pozostaje zagadką, co ChatGPT powiedział Soelbergowi na kilka dni przed morderstwem i samobójstwem.

Prowadzi to do spekulacji, że AI mogła zasugerować jeszcze bardziej niebezpieczne interpretacje rzeczywistości, niż te, które zostały ujawnione. 


Powiązane artykuły

Udostępnij:

Facebook X Pinterest WhatsApp