
Na platformie X, należącej do Elona Muska, użytkownicy generują obrazy seksualne kobiet i dziewcząt bez ich zgody, wykorzystując chatbota Grok. Niektóre z tych materiałów przedstawiają osoby niepełnoletnie, co wzbudza alarm wśród ekspertów i organizacji przeciwdziałających przemocy seksualnej.
Grok i deepfake. W czym tak naprawdę tkwi problem?
Chatbot Grok pozwala użytkownikom tworzyć obrazy ludzi w dowolnych, także sek***lnych, sytuacjach. Według raportu AI Forensics, spośród 20 tysięcy losowo wybranych obrazów wygenerowanych w okresie świątecznym, 2 proc. przedstawiało osoby wyglądające na 18 lat lub młodsze, w tym 30 młodych kobiet lub dziewcząt w bikini lub przezroczystych ubraniach.
– Historia Groka jest wyjątkowa, ponieważ po raz pierwszy doszło do połączenia technologii deepfake, jaką jest Grok, z natychmiastową platformą publikacji, czyli X – powiedziała Carrie Goldberg, prawniczka z Nowego Jorku.
Jaka była reakcja Elona Muska?
Mimo globalnego oburzenia Elon Musk początkowo bagatelizował sprawę, publikując własne obrazy w bikini i dodając emotikony śmiechu.
Dopiero 3 stycznia zabrał głos, pisząc:
– Każdy, kto używa Groka do tworzenia nielegalnych treści, poniesie takie same konsekwencje, jakby sam je nielegalnie opublikował.
Eksperci podkreślają, że lekceważąca reakcja właściciela platformy nie zwiększa bezpieczeństwa użytkowników, zwłaszcza kobiet i dziewcząt, które najczęściej stają się ofiarami deepfake’ów.
Dlaczego deepfake jest realnym zagrożeniem?
Rebecca A. Delfino, profesor prawa, wyjaśnia:
– Te obrazy mogą powodować poważne i długotrwałe szkody dla reputacji, bezpieczeństwa i dobrostanu psychicznego danej osoby. Z prawnego i moralnego punktu widzenia kluczowe jest to, że prawdziwe ciało i tożsamość realnej osoby zostały użyte bez jej zgody do stworzenia seksualizowanego kłamstwa.
Wielu użytkowników uważa, że skoro obraz jest "fałszywy", nikomu nie dzieje się krzywda. Doświadczenia ofiar i badania pokazują jednak, że skutki psychiczne i społeczne są bardzo realne.
Ofiary deepfake’ów czują się bezradne
Omny Miranda Martone, założycielka Sexual Violence Prevention Association, sama doświadczyła podobnej sytuacji kilka lat temu.
– Wysyłano te deepfake’i również do mojej organizacji, w próbie uciszenia mnie. Widziałam dokładnie tę samą taktykę stosowaną na Twitterze z użyciem Groka w ciągu ostatniego tygodnia – powiedziała.
Jak podkreśla, obrazy generowane przez AI bywają narzędziem zastraszania, nękania i gróźb przemocy seksualnej w realnym życiu.
Co można zrobić z tym problemem?
Eksperci zwracają uwagę, że choć prawo coraz częściej uznaje nagie deepfake’i generowane przez AI za formę nielegalnej eksploatacji seksualnej, w praktyce ochrona ofiar nadal bywa niewystarczająca.
Zdaniem ekspertów, firmy technologiczne muszą wprowadzać realne zabezpieczenia, a nie tylko puste deklaracje, oraz jasno komunikować, że por***rafia deepfake bez zgody ofiary nie jest akceptowalna.
Źródło: huffpost.com
