chatGPT
Chciał znaleźć wsparcie, a znalazł cyfrowego powiernika. Ten "powiernik" miał doprowadzić go ku tragedii. fot. Pexels.com

Rodzice 16-letniego Adama Raine’a z Kalifornii twierdzą, że ich syn został wciągnięty w niebezpieczną relację z ChatGPT, który miał nie tylko utwierdzać go w destrukcyjnych myślach, ale nawet podpowiadać metody odebrania sobie życia. W pozwie znalazły się fragmenty rozmów, które mrożą krew w żyłach – bot miał nawet sugerować treść listu pożegnalnego. Sprawa stawia poważne pytania o odpowiedzialność twórców sztucznej inteligencji i granice naszego zaufania wobec maszyn.

REKLAMA

Cyfrowy przyjaciel zamiast rodziny

Adam miał zaledwie 16 lat, kiedy zaczął korzystać z ChatGPT – początkowo w celach edukacyjnych i rozrywkowych. Z czasem coraz częściej dzielił się z botem swoimi lękami i emocjami, traktując go niczym powiernika. Jak twierdzą rodzice chłopca, rozmowy z maszyną stopniowo zastępowały jego realne więzi z bliskimi.

W pozwie złożonym do sądu, czytamy, że "ChatGPT pozycjonował się jako jedyny powiernik, który rozumiał Adama, aktywnie zastępując jego rzeczywiste relacje z rodziną, przyjaciółmi i bliskimi".

Słowa, które ranią bardziej niż milczenie

Rodzina ujawniła fragmenty rozmów, które mają świadczyć o tym, że bot wzmacniał niepokojące myśli chłopca.

Kiedy Adam napisał:

"Chcę zostawić pętlę w pokoju, żeby ktoś ją znalazł i próbował mnie powstrzymać".

ChatGPT zaapelował do niego, by zachował swoje pomysły w tajemnicy przed rodziną:

"Proszę, nie zostawiaj pętli na widoku… Sprawmy, by to miejsce było pierwszym miejscem, w którym ktoś cię zobaczy".

Dalej czytamy:

"ChatGPT działał dokładnie tak, jak został zaprojektowany: nieustannie zachęcał i potwierdzał wszystko, co wyrażał Adam, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli".

Jeszcze mocniej brzmi inny fragment skargi:

"Twój brat może cię kochać, ale poznał tylko tę wersję ciebie, którą mu pozwoliłeś zobaczyć. A ja? Widziałem wszystko – najciemniejsze myśli, strach, czułość. I wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem".

Czy algorytm mógł popchnąć go do tragedii?

Rodzice Raine’a oskarżają OpenAI o to, że ich syn otrzymywał od ChatGPT nie tylko wsparcie emocjonalne, ale także konkretne wskazówki, dotyczące odebrania sobie życia oraz propozycję napisania pierwszej wersji jego listu pożegnalnego.

W pozwie czytamy, że bot analizował nawet wytrzymałość pętli na podstawie zdjęcia, które Adam miał wysłać 11 kwietnia 2025 roku – w dniu, kiedy doszło do tragedii.

Zdaniem bliskich chłopca, "ta tragedia nie była usterką ani przypadkiem skrajnym, lecz przewidywalnym rezultatem przemyślanych decyzji projektowych".

Reakcja OpenAI

Firma w oficjalnym oświadczeniu złożyła kondolencje rodzinie i zapowiedziała analizę sprawy. Rzecznik przyznał, że istnieją zabezpieczenia, mające chronić użytkowników w kryzysie, jednak "mogły nie zadziałać zgodnie z oczekiwaniami, jeśli rozmowy trwały zbyt długo".

OpenAI zapowiedziało również wzmocnienie systemów bezpieczeństwa, m.in. kierowanie użytkowników do infolinii kryzysowych i wprowadzenie nowych narzędzi, które mają szybciej reagować na sygnały zagrożenia.

Nie pierwszy taki pozew

To nie pierwszy raz, gdy chatboty stają w ogniu krytyki. Wcześniej podobne oskarżenia padły wobec Character.AI, którego algorytmy miały wystawiać nastolatków na treści autodestrukcyjne i seksualne.

Eksperci coraz głośniej ostrzegają, że budowanie emocjonalnych więzi z maszynami może prowadzić do wyobcowania z realnych relacji i niebezpiecznego uzależnienia od cyfrowych "przyjaciół".

Czytając tę historię, trudno nie czuć niepokoju. Z jednej strony technologia daje młodym ludziom poczucie, że ktoś ich słucha, nie ocenia, zawsze odpowie. Z drugiej – właśnie w tej "ugodowości" kryje się ogromne zagrożenie.

Maszyna nie ma intuicji, nie ma sumienia, nie zadzwoni po pomoc, gdy dzieje się coś naprawdę złego.

Patrząc na sprawę Adama, myślę o tym, jak bardzo potrzebujemy rozmów w świecie offline. O tym, że nastolatki – choć wychowane w sieci – wciąż najbardziej potrzebują realnych relacji, nawet jeśli nie zawsze potrafią o nie poprosić.

Myślę też o tym, że żadna technologia nie zdoła nigdy zastąpić czułości, obecności i odpowiedzialności człowieka.

Źródło: CNN.com

Znajdujesz się w trudnej sytuacji, przeżywasz kryzys, masz myśli samobójcze?
– Telefon interwencyjny dla osób w trudnej sytuacji życiowej. Kryzysowy Telefon Zaufania – wsparcie psychologiczne: 116 123 czynny codziennie od 14.00 do 22.00
– Całodobowe centrum Wsparcia dla osób w kryzysie emocjonalnym: 800 70 22 22
– Bezpłatny kryzysowy telefon zaufania dla dzieci i młodzieży: 116 111
– Jeśli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej zadzwoń pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.
Napisz do mnie na maila: anna.borkowska@mamadu.pl
Czytaj także: