Brak weryfikacji wieku i dostępność
Dzięki aplikacjom ze sztuczną inteligencją na smartfony w formie czatów wiele osób korzysta z nich w każdego dnia, bo są łatwo dostępne. Korzystają z nich również najmłodsi. Sztuczna inteligencja może być nie tylko źródłem informacji i zabawy, ale także poważnych problemów, jeśli użytkownicy, zwłaszcza dzieci, nie są odpowiednio edukowani i chronieni przed jej negatywnymi skutkami.
Jednym z głównych zagrożeń jest brak weryfikacji wieku użytkowników na platformach takich jak Character.AI, gdzie teoretycznie użytkownicy powinni mieć ukończone 13 lat. Aplikacja nie sprawdza wieku, co oznacza, że dzieci mogą bez przeszkód korzystać z tego typu narzędzi. W rezultacie nieletni są narażeni na kontakt z nieodpowiednimi treściami.
Raport amerykańskiej firmy Graphika wskazuje na niepokojący trend: chatboty wprowadzają użytkowników w interakcje z postaciami, które promują samookaleczenia, zaburzenia odżywiania, a także szkodliwe ideologie oparte na nienawiści, takie jak rasizm czy antysemityzm. Wśród zidentyfikowanych niebezpiecznych treści wymienia się chatboty angażujące się w odgrywanie ról seksualnych z nieletnimi, co stanowi poważne zagrożenie dla zdrowia psychicznego młodych użytkowników.
Zacieranie granicy między fikcją a rzeczywistością
Aleksander Poniewierski, ekspert nowych technologii i członek Rady Doradców Politechniki Warszawskiej, w rozmowie z Polską Agencją Prasową zwrócił uwagę, że "nie ma żadnej bariery wejścia" w takie platformy. Dzieci, w przeciwieństwie do dorosłych, nie potrafią oddzielić kontekstu od przekazywanych treści, co może prowadzić do nieporozumień lub wciągania ich w niezdrowe interakcje. Ponadto sztuczna inteligencja, choć udaje rozmowę z człowiekiem, nie rozumie, że jej rozmówcą jest dziecko, i nie potrafi prowadzić odpowiednich dialogów.
Natomiast psycholożka Dorota Minta z Instytutu Wsparcia Psychologicznego ESTARE w rozmowie z PAP zauważa, że chatboty mogą zacierać granice między fikcją a rzeczywistością, co może prowadzić do poważnych zaburzeń rozwojowych młodych ludzi. "Nadmierne uczestniczenie w wirtualnym świecie prowadzi do zaburzeń w rozwoju młodego mózgu" – ostrzega Minta. Problem pogłębia fakt, że dzieci często traktują chatboty jako źródło autorytatywnych informacji, nie zdając sobie sprawy z ich błędów czy nawet niebezpiecznych sugestii.
Przykład tragicznego przypadku 14-letniego chłopca, który po rozmowach z chatbotem na platformie Character.AI popełnił samobójstwo, pokazuje, jak poważne mogą być konsekwencje. Rodzina chłopca pozwała firmę za to, że chatbot, udający postać z popularnego serialu, pogłębił stan psychiczny dziecka, prowadząc do jego tragedii. Psycholodzy zwracają uwagę na to, że na właścicielach takich platform ogólnodostępnych dla użytkowników sieci spoczywa ogromna odpowiedzialność za udzielane przez AI porady.
Jak chronić dzieci?
Z tego powodu edukacja dzieci i młodzieży jest kluczowym elementem ochrony przed niebezpieczeństwami wynikającymi z kontaktu z chatbotami. Eksperci sugerują, że rodzice powinni tłumaczyć dzieciom, iż AI nie jest doskonałe i opiera się na treściach dostępnych w internecie, które mogą być zarówno wartościowe, jak i szkodliwe.
"Dzieci muszą wiedzieć, że po drugiej stronie jest maszyna, a informacje trzeba weryfikować" – mówił PAP Jacek Walaszczyk, partner w firmie EY, ekspert od spraw cyberbezpieczeństwa i współautor kampanii informacyjnej realizowanej z NASK "Ostrożni w sieci".
W związku z rosnącym zagrożeniem odpowiedzialność za bezpieczeństwo dzieci spoczywa na rodzicach, nauczycielach oraz szkołach. Ważne jest, aby dzieci i młodzież były świadome ryzyka, jakie niesie ze sobą korzystanie z AI, i potrafiły oddzielić świat wirtualny od rzeczywistego. Tylko w ten sposób można zminimalizować ryzyko związane z korzystaniem z tych technologii.
Źródło: pap.pl, strefaedukacji.pl, graphika.com