
Sztuczna inteligencje zdominowała nasze życie pod wieloma względami. Młodym ludziom zastępuje relacje i wsparcie psychiczne. I to w tym obszarze obserwujemy wiele zagrożeń. Pozew złożony przeciwko OpenAI, zmusił firmę do wprowadzenia ograniczeń dla dzieci i nastolatków. To wszystko jest następstwem pozwu, jaki złożono przeciwko Chatowi GPT po tym jak młody mieszkaniec Kalifornii odebrał sobie życie.
Coraz więcej nastolatków korzysta ze sztucznej inteligencji (AI) w codziennym życiu. Zwracają się do niej o pomoc w nauce, w poszukiwaniu rozrywki, a nawet budują z nią relację.
Jednym z najpopularniejszych narzędzi jest ChatGPT. Badanie Pew Research Center z 2025 roku wykazało, że aż 79 proc. nastolatków w Stanach Zjednoczonych słyszało o chatbocie, co oznacza wzrost o 67 proc. w porównaniu z 2023 rokiem. Co czwarty uczeń przyznaje, że korzysta z niego podczas odrabiania prac domowych.
Zagrożenie większe niż nam się wydaje
Choć ChatGPT bywa wsparciem, eksperci ostrzegają, że może też stwarzać zagrożenia – m.in. poprzez dezinformację czy ryzykowne porady.
Temat bezpieczeństwa młodych użytkowników nabrał szczególnej wagi po głośnym pozwie rodziców Adama Raine’a z Kalifornii. Chłopiec rozmawiał z chatbotem o swoich problemach psychicznych. Jego bliscy uznali, że brak odpowiednich zabezpieczeń miał dramatyczne konsekwencje.
W odpowiedzi na ten pozew OpenAI ogłosiło wprowadzenie nowych funkcji kontroli rodzicielskiej.
Jakie zabezpieczenia wprowadza OpenAI dla nastolatków?
W poście opublikowanym na blogu na początku września, OpenAI przyznało, że młode pokolenie dorasta, mając kontakt z AI tak samo, jak wcześniejsze dorastało z internetem i smartfonami.
– Daje to szansę na rozwój i kreatywność, ale też pokazuje, że rodziny potrzebują wskazówek, jak wyznaczać bezpieczne zasady odpowiednie dla wieku nastolatków – czytamy w tym komunikacie.
W ciągu najbliższego miesiąca mają więc zostać uruchomione następujące funkcje
1. Łączenie kont rodzica i dziecka
Rodzice będą mogli sparować konta poprzez zaproszenie e-mailowe. Minimalny wiek użytkownika ChatGPT pozostaje bez zmian – 13 lat.
2. Reguły dostosowane do wieku
Chatbot będzie działał w oparciu o domyślne ustawienia zachowania i komunikacji, dostosowane wieku użytkownika.
3. Możliwość wyłączania funkcji
Rodzice będą mogli decydować, czy włączone pozostają takie funkcje jak pamięć czy historia czatów.
4. Powiadomienia o kryzysie
Platforma wprowadzi system alertów, który poinformuje opiekunów, jeśli u nastolatka zostaną wykryte oznaki silnego stresu. Funkcja tworzona jest we współpracy z ekspertami, by wspierać zaufanie między rodzicami a dziećmi.
OpenAI podkreśla, że to dopiero pierwszy krok. Firma zapowiedziała, że w ciągu najbliższych 120 dni będzie doskonalić rozwiązania w oparciu o rekomendacje specjalistów.
Rozmowa ważniejsza niż blokady
Nowe opcje kontroli rodzicielskiej mogą pomóc w ochronie młodych użytkowników, ale specjaliści zaznaczają, że najważniejsza jest edukacja i dialog w rodzinie.
– AI może się mylić, bazować na niepełnych informacjach czy powielać uprzedzenia – tłumaczy Laura Tierney, założycielka The Social Institute.
– Dlatego rodzice powinni uczyć dzieci krytycznego myślenia, zadawania pytań i weryfikowania informacji w wiarygodnych źródłach – dodaje.
Eksperci przypominają również, że ChatGPT ani żaden chatbot nie powinien być wykorzystywany jako ekspert w kwestiach zdrowia psychicznego.
Badania Uniwersytetu Stanforda pokazują, że terapeutyczne boty AI mogą być nieskuteczne, a czasem wręcz udzielać niebezpiecznych odpowiedzi.
Wprowadzenie kontroli rodzicielskiej przez OpenAI to dobry krok. Jednak to właśnie rozmowa, wsparcie i świadome podejście rodziców są najważniejsze. Pamiętajmy o tym. Sztuczna inteligencje nie zastąpi prawdziwego, zdrowego rozsądku.
Zobacz także
