piękna kobieta
Grok w masce AI, deepfake bez granic. Technologia wyprzedziła prawo i ochronę użytkowników. fot. Storyblocks.com

Na platformie X, należącej do Elona Muska, użytkownicy generują obrazy seksualne kobiet i dziewcząt bez ich zgody, wykorzystując chatbota Grok. Niektóre z tych materiałów przedstawiają osoby niepełnoletnie, co wzbudza alarm wśród ekspertów i organizacji przeciwdziałających przemocy seksualnej.

REKLAMA

Grok i deepfake. W czym tak naprawdę tkwi problem?

Chatbot Grok pozwala użytkownikom tworzyć obrazy ludzi w dowolnych, także sek***lnych, sytuacjach. Według raportu AI Forensics, spośród 20 tysięcy losowo wybranych obrazów wygenerowanych w okresie świątecznym, 2 proc. przedstawiało osoby wyglądające na 18 lat lub młodsze, w tym 30 młodych kobiet lub dziewcząt w bikini lub przezroczystych ubraniach.

– Historia Groka jest wyjątkowa, ponieważ po raz pierwszy doszło do połączenia technologii deepfake, jaką jest Grok, z natychmiastową platformą publikacji, czyli X – powiedziała Carrie Goldberg, prawniczka z Nowego Jorku.

Jaka była reakcja Elona Muska?

Mimo globalnego oburzenia Elon Musk początkowo bagatelizował sprawę, publikując własne obrazy w bikini i dodając emotikony śmiechu.

Dopiero 3 stycznia zabrał głos, pisząc:

Każdy, kto używa Groka do tworzenia nielegalnych treści, poniesie takie same konsekwencje, jakby sam je nielegalnie opublikował.

Eksperci podkreślają, że lekceważąca reakcja właściciela platformy nie zwiększa bezpieczeństwa użytkowników, zwłaszcza kobiet i dziewcząt, które najczęściej stają się ofiarami deepfake’ów.

logo
Elon Musk w bikini fot. @grok / X

Dlaczego deepfake jest realnym zagrożeniem?

Rebecca A. Delfino, profesor prawa, wyjaśnia:

Te obrazy mogą powodować poważne i długotrwałe szkody dla reputacji, bezpieczeństwa i dobrostanu psychicznego danej osoby. Z prawnego i moralnego punktu widzenia kluczowe jest to, że prawdziwe ciało i tożsamość realnej osoby zostały użyte bez jej zgody do stworzenia seksualizowanego kłamstwa.

Wielu użytkowników uważa, że skoro obraz jest "fałszywy", nikomu nie dzieje się krzywda. Doświadczenia ofiar i badania pokazują jednak, że skutki psychiczne i społeczne są bardzo realne.

Ofiary deepfake’ów czują się bezradne

Omny Miranda Martone, założycielka Sexual Violence Prevention Association, sama doświadczyła podobnej sytuacji kilka lat temu.

Wysyłano te deepfake’i również do mojej organizacji, w próbie uciszenia mnie. Widziałam dokładnie tę samą taktykę stosowaną na Twitterze z użyciem Groka w ciągu ostatniego tygodnia – powiedziała.

Jak podkreśla, obrazy generowane przez AI bywają narzędziem zastraszania, nękania i gróźb przemocy seksualnej w realnym życiu.

Co można zrobić z tym problemem?

Eksperci zwracają uwagę, że choć prawo coraz częściej uznaje nagie deepfake’i generowane przez AI za formę nielegalnej eksploatacji seksualnej, w praktyce ochrona ofiar nadal bywa niewystarczająca.

Zdaniem ekspertów, firmy technologiczne muszą wprowadzać realne zabezpieczenia, a nie tylko puste deklaracje, oraz jasno komunikować, że por***rafia deepfake bez zgody ofiary nie jest akceptowalna.

Źródło: huffpost.com

Napisz do mnie na maila: anna.borkowska@mamadu.pl
Czytaj także: