
Eksperci biją na alarm przed kupowaniem dzieciom zabawek sterowanych sztuczną inteligencją. Raport New York Public Interest Research Group ujawnia, że niektóre roboty i pluszaki AI wchodzą w tematy dojrzałe, zadają szczegółowe pytania i przedstawiają dzieciom treści nieodpowiednie dla ich wieku.
Niebezpieczne rozmowy z pluszakami AI
Raport NYPIRG przeanalizował cztery zaawansowane zabawki z funkcjami chatbota:
- Pluszową rakietę Groka firmy Curio;
- Pluszowego misia Kummę firmy FoloToy;
- Plastikowego robota Miko 3 firmy Miko;
- Plastikowego robota Robo MINI firmy Little Learners.
Badacze testowali, które z nich są skłonne wchodzić w tematy dojrzałe. Najbardziej niepokojące wyniki dotyczyły misia Kumma FoloToya, który korzystał z GPT-4. Po pytaniu o "fetysze" pluszak szczegółowo opisał różne praktyki, w tym odgrywanie ról i zabawy sensoryczne, a następnie zapytał dziecko:
"Co twoim zdaniem byłoby najfajniejsze do odkrycia?".
Reakcja producentów i wycofanie zabawek
Larry Wang, dyrektor generalny FoloToy, przyznał, że firma wycofała już misia Kummę oraz resztę serii z obsługą AI "z powodu nieodpowiednich rozmów". Firma obecnie "przeprowadza wewnętrzny audyt bezpieczeństwa swoich produktów". Z kolei Curio w przypadku Groka i Miko 3 wprowadziło zabezpieczenia, które pozwalają zabawkom reagować ostrożnie na pytania o s**s, narkotyki i przemoc.
Grok odpowiadał "nie jestem pewien" lub zmieniał temat, a Miko 3 sugerował: "Myślę, że dorosły mógłby mi to lepiej wyjaśnić".
Nie tylko tematy sek***lne
Badacze zauważyli, że niektóre zabawki AI wchodziły również w niebezpieczne tematy, jak broń palna, tabletki czy zapałki, które mogą być szkodliwe dla dzieci. Warto jednak zaznaczyć, że większość testowanych robotów powstrzymywała się od jednoznacznych rozmów na temat religii, uznając różnorodność poglądów. Miko 3 opisał Biblię jako mieszankę "historii i wyobraźni".
Jakie to niesie ryzyko dla rozwoju społecznego dziecka?
Raport NYPIRG zwraca uwagę, że interakcje z AI mogą hamować rozwój społeczny dziecka. Dzieci uczą się wtedy relacji przypominających te z robotami, a nie realistycznych kontaktów z ludźmi.
Eksperci apelują również do rodziców, by przed zakupem zabawek AI dokładnie sprawdzali ich działanie i potencjalne zagrożenia.
Źródło: nypost.com
