m.rekinek

Uwaga, niebezpieczeństwo ! Dzieci rozmawiają z AI jakby był Bogiem lub najlepszym przyjacielem.

Jako dorosły mogę poprosić sztuczną inteligencję o znalezienie pracy badawczej, nie rozpoczynając rozmowy o moich osobistych problemach.

Z dziećmi jest inaczej. Sztuczna inteligencja staje się pułapką i idolem, a po raz pierwszy w historii świata może przemówić bezpośrednio do ciebie.

Czy to możliwe, że twórcy sztucznej inteligencji w Dolinie Krzemowej zdają sobie sprawę, że tworzą taki system bałwochwalstwa? Tak, biorąc pod uwagę wszystkie te rozmowy o Bogu sztucznej inteligencji w społeczności AI. ⁃ Patrick Wood, redaktor.


Precz z Tik Tokiem – dzieci mają nowego cyfrowego powiernika, który odpowiada pełnymi zdaniami.

Z nowego brytyjskiego raportu Me, Myself & AI wynika, że coraz większa liczba dzieci korzysta z chatbotów opartych na sztucznej inteligencji nie tylko w celu ściągania — czyli nauki — do egzaminów, ale także w celu uzyskania wsparcia emocjonalnego, porady modowej, a nawet towarzystwa.

Raport, opublikowany w niedzielę przez organizację non-profit Internet Matters, przepytał 1000 dzieci i 2000 rodziców w Wielkiej Brytanii i wykazał, że 64% dzieci korzysta z chatbotów opartych na sztucznej inteligencji do różnych celów, od odrabiania lekcji po ćwiczenie trudnych konwersacji.

Co jeszcze bardziej zdumiewające, ponad jedna trzecia tych młodych użytkowników twierdzi, że rozmowa z chatbotem przypomina rozmowę ze znajomym.

Jasne, boty nie zjadają przekąsek ani nie przejmują kontroli nad konsolą Xbox, ale nie mają też żadnych wbudowanych zabezpieczeń — przynajmniej na razie.

Kiedy sztuczna inteligencja staje się nauczycielem, terapeutą i najlepszym przyjacielem

Niektóre wyniki są zachęcające dla osób optymistycznie nastawionych do roli sztucznej inteligencji w edukacji. 42% dzieci zgłosiło korzystanie z chatbotów do pomocy w odrabianiu prac domowych, powołując się na szybkie odpowiedzi, wsparcie w pisaniu i ćwiczenia językowe.

Ale jeśli przyjrzymy się temu bliżej, obraz staje się jeszcze bardziej skomplikowany. Prawie jedna czwarta dzieci deklaruje, że korzysta z chatbotów, aby uzyskać porady dotyczące wszystkiego, od ubioru, przez zarządzanie relacjami, po problemy ze zdrowiem psychicznym.

Co jeszcze bardziej niepokojące? Piętnaście procent deklaruje, że woli rozmawiać z chatbotem niż z prawdziwym człowiekiem. W przypadku dzieci z grup ryzyka te liczby są jeszcze wyższe.

To ten rodzaj lojalności klientów, o jakim niektóre marki mogą tylko pomarzyć – bez wytycznych etycznych, weryfikacji wieku i nadzoru regulacyjnego.

Przestroga dla sektora technologicznego

Raport nie owija w bawełnę, zwłaszcza jeśli chodzi o to, jak nieprzygotowanych jest wiele platform AI dla swoich najmłodszych użytkowników. Dzieci wchodzą w interakcje z chatbotami, takimi jak ChatGPT, My AI od Snapchata i character.ai – platformami, które niekoniecznie zostały zaprojektowane z myślą o najmłodszych.

Skutek?

Niektórzy otrzymują nieprawdziwe informacje, emocjonalnie niepokojące opinie, a nawet nieodpowiednie treści. (Tak, pomimo że warunki korzystania z usługi sugerują inaczej).

I choć „przyjaciel-robot” może brzmieć jak urocza historia poboczna z filmu Pixar, sprawa robi się o wiele poważniejsza, gdy jedno na czworo dzieci z grupy ryzyka przyznaje, że korzysta z chatbotów, ponieważ nie ma nikogo innego, z kim mogłoby porozmawiać.

W praktyce doszło już do niepokojących incydentów. W USA matka z Florydy wniosła pozew po tym, jak jej nastoletni syn rzekomo otrzymał szkodliwe i o charakterze seksualnym wiadomości od chatbota. W Wielkiej Brytanii poseł zgłosił przerażający przypadek, w którym 12-latek został rzekomo zmanipulowany przez chatbota.

W lutym senator z Kalifornii Steve Padilla przedstawił projekt ustawy nr 243, który zobowiązałby twórców sztucznej inteligencji do wdrożenia zabezpieczeń chroniących nieletnich przed uzależniającymi i manipulacyjnymi aspektami technologii chatbotów.

Ustawa obejmuje takie zabezpieczenia, jak ostrzeżenia dotyczące wieku, powiadomienia o tym, że użytkownicy rozmawiają ze sztuczną inteligencją, a nie z prawdziwą osobą, oraz obowiązkowe raportowanie związku między korzystaniem z chatbotów a zdrowiem psychicznym młodzieży.

W obliczu coraz bardziej zaawansowanych chatbotów i ich marketingu jako cyfrowych towarzyszy, Padilla argumentuje, że dzieci nie powinny być traktowane jak „szczury laboratoryjne” wielkich firm technologicznych – pogląd ten podzielają rzecznicy bezpieczeństwa dzieci, badacze i eksperci ds. zdrowia psychicznego, którzy popierają projekt ustawy.

Rodzice i szkoły są przeciążeni

Według raportu rodzice są zaniepokojeni sztuczną inteligencją, ale nie mają na nią szczególnej władzy.

Chociaż 62% rodziców stwierdziło, że martwi się o dokładność informacji generowanych przez sztuczną inteligencję, tylko 34% rozmawiało z dziećmi o tym, jak oceniać wiarygodność treści generowanych przez sztuczną inteligencję. I chociaż sztuczna inteligencja najwyraźniej wkradła się do rozmów przy lunchboxie, tylko 57% dzieci przyznało, że rozmawiało na ten temat z nauczycielem, często podając sprzeczne porady.

W miarę jak narzędzia sztucznej inteligencji stają się bardziej konwersacyjne – i przekonująco ludzkie – dzieci nie tylko z nich korzystają, ale także nawiązują z nimi relacje. Pięćdziesiąt procent dzieci z grup ryzyka twierdzi, że czują się jak podczas rozmowy z prawdziwym przyjacielem.

Mogłoby to być w porządku, gdyby boty oferowały recenzowane porady i empatyczne algorytmy, ale obecnie wciąż mamy do czynienia z probabilistycznym przewidywaniem słów.

Rachel Huggins, współdyrektor generalna organizacji non-profit Internet Matters , podsumowuje to następująco: „Chatboty oparte na sztucznej inteligencji szybko stają się częścią dzieciństwa… ale większość dzieci, rodziców i szkół działa w ciemno”.

Niebezpieczeństwo! Dzieci rozmawiają ze sztuczną …
51,7 tys.

Rodzice, którzy małym dzieciom dają dostęp do takiej technologii to zwykła patolka.
Miłego odsłuchu WITAJ W MOIM ŚNIE - DZIECI ŚMIECI

Te_Deumlaudamus udostępnia to
1581
Maxymilian N

To niestety incjacja okultystyczna jak psychologia i wrożbiarstwo

Tymoteusz

„Andrew Torba, dyrektor generalny skrajnie prawicowego serwisu społecznościowego Gab, twierdzi, że ChatGPT jest „szatański” i że chrześcijanie powinni zamiast tego stworzyć sztuczną inteligencję, która będzie wychwalać Boga.”
Jestem tego samego zdania co Andrew Torba, „że ChatGPT jest „szatański””.
Dodatkowo Andrew Torba mówi w kontrze do takiego szatańskiego modelu ChatGPT „że chrześcijanie powinni zamiast tego stworzyć sztuczną inteligencję, która będzie wychwalać Boga.””
Uważam, że program komputerowy nie może wychwalać Boga, może jedynie ukierunkowywać czytających (słuchających tak celowo zaprogramowanej sztucznej inteligencji) w takim kierunku, ale moim zdaniem i tak nie będzie to kierunek Boży, ponieważ struktura która nie ma duszy nie może wychwalać Boga i tym bardziej nie może w miejsce kapłanów katolickich prowadzić dusz (ludzi) do Boga.
Innymi słowy zastąpienie dżumy cholerą nic dobrego nie wniesie, tylko przyniesie bezduszne, komputerowe samo zło, którego ojcem jest szatan...

IS 2201

To w takim razie jest ryzyko, że wieczność spędzą z AI.

m.rekinek

Dyrektor generalny skrajnie prawicowej sieci Gab twierdzi, że sztuczne inteligencje, takie jak ChatGPT, są „satanistyczne” i rozważa stworzenie chrześcijańskiej, która mogłaby im się przeciwstawić
Dyrektor generalny skrajnie prawicowego portalu społecznościowego Gab chce stworzyć sztuczną inteligencję wyraźnie chrześcijańską.
Andrew Torba oskarżył ChatGPT o „szatanizm” i opowiadał się za sztuczną inteligencją stworzoną „ku chwale Boga”.
ChatGPT nie ma zamiaru wyznawać żadnych przekonań i w wywiadzie dla Insidera stwierdził, że nie uważa się za organizację satanistyczną.

Andrew Torba, dyrektor generalny skrajnie prawicowego serwisu społecznościowego Gab, twierdzi, że ChatGPT jest „szatański” i że chrześcijanie powinni zamiast tego stworzyć sztuczną inteligencję, która będzie wychwalać Boga.
Torba napisał artykuł zatytułowany „Chrześcijanie muszą wziąć udział w wyścigu zbrojeń przeciwko sztucznej inteligencji”, w którym szczegółowo przedstawił liczne sposoby, w jakie chrześcijanie powinni walczyć ze sztuczną inteligencją.
Artykuł opublikowano 27 stycznia i zawierał on śmiałe, bezpodstawne twierdzenie, że każdy system sztucznej inteligencji — w tym ChatGPT firmy OpenAI — jest „przesiąknięty liberalnym/globalistycznym/talmudycznym/satanistycznym światopoglądem”.
OpenAI twierdzi, że ChatGPT nie ma na celu faworyzowania żadnej grupy ani nie ma własnych przekonań, a jego model został opracowany w taki sposób, aby unikać „trudnych” tematów.
Niemniej jednak OpenAI stwierdziło, że istnieją pewne uprzedzenia i pracuje nad ich usunięciem. Insider zapytał ChatGPT, czy uważa, że ma ono charakter satanistyczny, na co firma odpowiedziała przecząco.
Insider zapytał ChatGPT, czy jest satanistą, a oto jego odpowiedź. W artykule Torba pyta: „Jeśli wróg zamierza wykorzystać tę technologię w złych celach, czy nie powinniśmy od razu budować takiej samej, służącej dobru?” (OpenAI twierdzi, że ChatGPT ma przynieść korzyści „całej ludzkości”).
„Jeśli nie zaczniemy budować i zdobywać terenu teraz, nasi wrogowie zdominują to potężne narzędzie i wykorzystają je w złych celach” – powiedział, nazywając sztuczną inteligencję „bronią przeciwko umysłom ludzi”, stworzoną przez „demony z Doliny Krzemowej”.
„Musimy stworzyć sztuczną inteligencję na chwałę Boga” – podsumował Torba.
Torba w swoim artykule twierdzi również, że „żadna firma” poza Gab nie jest przygotowana na stworzenie chrześcijańskiej sztucznej inteligencji, powołując się na to, co jego zdaniem jest wyrazem poparcia firmy dla wolności słowa.
Przedstawiciele OpenAI nie odpowiedzieli natychmiast na prośbę Insidera o komentarz. Insider zapytał ChatGPT, co sądzi o artykule Torby, i usłyszał, że jest on „błędny”.
„Rozwój sztucznej inteligencji to złożona i interdyscyplinarna dziedzina, wymagająca wiedzy specjalistycznej z różnych dziedzin, w tym informatyki, matematyki i inżynierii. Nie jest jasne, w jaki sposób bycie chrześcijaninem lub wyznawanie wartości chrześcijańskich mogłoby dać komuś przewagę w tworzeniu systemów sztucznej inteligencji” – powiedział ChatGPT portalowi Insider.
ChatGPT zauważył również, że pomysł Torby, iż chrześcijanie powinni wziąć udział w wyścigu zbrojeń, „wydaje się sprzeczny z chrześcijańskimi naukami o pokoju, miłości i niestosowaniu przemocy”.
„Zamiast koncentrować się na konstruowaniu lepszej broni, bardziej produktywne byłoby skupienie się na tworzeniu systemów sztucznej inteligencji, które promują rozwój człowieka, niezależnie od jego przekonań religijnych” – stwierdził ChatGPT.
Warto zauważyć, że nie ma dowodów na to, że Gab ma wiedzę specjalistyczną niezbędną do zbudowania sztucznej inteligencji.
Rzeczywiście, jego technologia była czasami kwestionowana: w lutym 2021 roku padła ofiarą masowego ataku hakerskiego , w wyniku którego ujawniono dane osobowe i hasło byłego prezydenta Donalda Trumpa . Gab przyznał, że doszło do wycieku danych, ale obwinił za to „hakerów-demonów”.
Od momentu premiery w 2016 roku, aplikacja Gab była również oskarżana o szerzenie mowy nienawiści przez firmy takie jak Apple i Microsoft. W 2016 roku Apple zablokowało aplikację Gab z powodu treści pornograficznych i mowy nienawiści. W 2017 roku aplikacja Gab została również zablokowana w sklepie Google Play. W 2018 roku Microsoft zagroził usunięciem aplikacji Gab ze swojej usługi chmury obliczeniowej Azure po tym, jak na platformie pojawiły się antysemickie posty nawołujące do „zemsty” na Żydach .
Nie jest jasne, czy Gab ma poważne plany dotyczące omawianego projektu. Torba w swoim poście poprosił „inżyniera z doświadczeniem w dziedzinie sztucznej inteligencji” o „kontakt” z firmą za pośrednictwem poczty elektronicznej w celu ubiegania się o stanowisko.