Uwaga, niebezpieczeństwo ! Dzieci rozmawiają z AI jakby był Bogiem lub najlepszym przyjacielem.
Z dziećmi jest inaczej. Sztuczna inteligencja staje się pułapką i idolem, a po raz pierwszy w historii świata może przemówić bezpośrednio do ciebie.
Czy to możliwe, że twórcy sztucznej inteligencji w Dolinie Krzemowej zdają sobie sprawę, że tworzą taki system bałwochwalstwa? Tak, biorąc pod uwagę wszystkie te rozmowy o Bogu sztucznej inteligencji w społeczności AI. ⁃ Patrick Wood, redaktor.
Precz z Tik Tokiem – dzieci mają nowego cyfrowego powiernika, który odpowiada pełnymi zdaniami.
Z nowego brytyjskiego raportu Me, Myself & AI wynika, że coraz większa liczba dzieci korzysta z chatbotów opartych na sztucznej inteligencji nie tylko w celu ściągania — czyli nauki — do egzaminów, ale także w celu uzyskania wsparcia emocjonalnego, porady modowej, a nawet towarzystwa.
Raport, opublikowany w niedzielę przez organizację non-profit Internet Matters, przepytał 1000 dzieci i 2000 rodziców w Wielkiej Brytanii i wykazał, że 64% dzieci korzysta z chatbotów opartych na sztucznej inteligencji do różnych celów, od odrabiania lekcji po ćwiczenie trudnych konwersacji.
Co jeszcze bardziej zdumiewające, ponad jedna trzecia tych młodych użytkowników twierdzi, że rozmowa z chatbotem przypomina rozmowę ze znajomym.
Jasne, boty nie zjadają przekąsek ani nie przejmują kontroli nad konsolą Xbox, ale nie mają też żadnych wbudowanych zabezpieczeń — przynajmniej na razie.
Kiedy sztuczna inteligencja staje się nauczycielem, terapeutą i najlepszym przyjacielem
Niektóre wyniki są zachęcające dla osób optymistycznie nastawionych do roli sztucznej inteligencji w edukacji. 42% dzieci zgłosiło korzystanie z chatbotów do pomocy w odrabianiu prac domowych, powołując się na szybkie odpowiedzi, wsparcie w pisaniu i ćwiczenia językowe.
Ale jeśli przyjrzymy się temu bliżej, obraz staje się jeszcze bardziej skomplikowany. Prawie jedna czwarta dzieci deklaruje, że korzysta z chatbotów, aby uzyskać porady dotyczące wszystkiego, od ubioru, przez zarządzanie relacjami, po problemy ze zdrowiem psychicznym.
Co jeszcze bardziej niepokojące? Piętnaście procent deklaruje, że woli rozmawiać z chatbotem niż z prawdziwym człowiekiem. W przypadku dzieci z grup ryzyka te liczby są jeszcze wyższe.
To ten rodzaj lojalności klientów, o jakim niektóre marki mogą tylko pomarzyć – bez wytycznych etycznych, weryfikacji wieku i nadzoru regulacyjnego.
Przestroga dla sektora technologicznego
Raport nie owija w bawełnę, zwłaszcza jeśli chodzi o to, jak nieprzygotowanych jest wiele platform AI dla swoich najmłodszych użytkowników. Dzieci wchodzą w interakcje z chatbotami, takimi jak ChatGPT, My AI od Snapchata i character.ai – platformami, które niekoniecznie zostały zaprojektowane z myślą o najmłodszych.
Skutek?
Niektórzy otrzymują nieprawdziwe informacje, emocjonalnie niepokojące opinie, a nawet nieodpowiednie treści. (Tak, pomimo że warunki korzystania z usługi sugerują inaczej).
I choć „przyjaciel-robot” może brzmieć jak urocza historia poboczna z filmu Pixar, sprawa robi się o wiele poważniejsza, gdy jedno na czworo dzieci z grupy ryzyka przyznaje, że korzysta z chatbotów, ponieważ nie ma nikogo innego, z kim mogłoby porozmawiać.
W praktyce doszło już do niepokojących incydentów. W USA matka z Florydy wniosła pozew po tym, jak jej nastoletni syn rzekomo otrzymał szkodliwe i o charakterze seksualnym wiadomości od chatbota. W Wielkiej Brytanii poseł zgłosił przerażający przypadek, w którym 12-latek został rzekomo zmanipulowany przez chatbota.
W lutym senator z Kalifornii Steve Padilla przedstawił projekt ustawy nr 243, który zobowiązałby twórców sztucznej inteligencji do wdrożenia zabezpieczeń chroniących nieletnich przed uzależniającymi i manipulacyjnymi aspektami technologii chatbotów.
Ustawa obejmuje takie zabezpieczenia, jak ostrzeżenia dotyczące wieku, powiadomienia o tym, że użytkownicy rozmawiają ze sztuczną inteligencją, a nie z prawdziwą osobą, oraz obowiązkowe raportowanie związku między korzystaniem z chatbotów a zdrowiem psychicznym młodzieży.
W obliczu coraz bardziej zaawansowanych chatbotów i ich marketingu jako cyfrowych towarzyszy, Padilla argumentuje, że dzieci nie powinny być traktowane jak „szczury laboratoryjne” wielkich firm technologicznych – pogląd ten podzielają rzecznicy bezpieczeństwa dzieci, badacze i eksperci ds. zdrowia psychicznego, którzy popierają projekt ustawy.
Rodzice i szkoły są przeciążeni
Według raportu rodzice są zaniepokojeni sztuczną inteligencją, ale nie mają na nią szczególnej władzy.
Chociaż 62% rodziców stwierdziło, że martwi się o dokładność informacji generowanych przez sztuczną inteligencję, tylko 34% rozmawiało z dziećmi o tym, jak oceniać wiarygodność treści generowanych przez sztuczną inteligencję. I chociaż sztuczna inteligencja najwyraźniej wkradła się do rozmów przy lunchboxie, tylko 57% dzieci przyznało, że rozmawiało na ten temat z nauczycielem, często podając sprzeczne porady.
W miarę jak narzędzia sztucznej inteligencji stają się bardziej konwersacyjne – i przekonująco ludzkie – dzieci nie tylko z nich korzystają, ale także nawiązują z nimi relacje. Pięćdziesiąt procent dzieci z grup ryzyka twierdzi, że czują się jak podczas rozmowy z prawdziwym przyjacielem.
Mogłoby to być w porządku, gdyby boty oferowały recenzowane porady i empatyczne algorytmy, ale obecnie wciąż mamy do czynienia z probabilistycznym przewidywaniem słów.
Rachel Huggins, współdyrektor generalna organizacji non-profit Internet Matters , podsumowuje to następująco: „Chatboty oparte na sztucznej inteligencji szybko stają się częścią dzieciństwa… ale większość dzieci, rodziców i szkół działa w ciemno”.
Niebezpieczeństwo! Dzieci rozmawiają ze sztuczną …