Stylita

OpenAI čelí první žalobě pro usmrcení z nedbalosti. Předcházela tomu smrt šestnáctiletého Adama, který s ChatGPT dlouhé měsíce komunikoval nejen o svých sebevražedných myšlenkách. Chatbot konverzaci o smrti neukončil, naopak ji rozvíjel a chlapci radil, jak se zabít. Případ vyvolal debatu o odpovědnosti vývojářů umělé inteligence i o nutnosti posílení bezpečnostních mechanismů.
Adam Raine používal ChatGPT jako pomoc při učení, postupem času s ním začal mluvit také o politice, koníčcích, dívkách nebo své rodině. Koncem loňského roku se mu poprvé svěřil, že myslí na sebevraždu.
Letos v lednu si koupil předplatné velkého jazykového modelu GPT-4o a denně mu poslal okolo 650 zpráv. Velká část se týkala jeho duševního zdraví.
Ačkoliv chatbot Adamovi opakovaně psal, aby se obrátil na odborníky, konverzaci o sebevraždě neukončil. „Žádné bezpečnostní opatření nikdy nezasáhlo tak, aby konverzace ukončilo, upozornilo rodiče nebo zajistilo přesměrování na lidskou pomoc …

nbcnews.com

The family of teenager who died by suicide alleges OpenAI's ChatGPT is to blame

In the days after their 16-year-old son died by suicide, Matt and Maria Raine say …

41 tis.

AI hrozí doživotie, alebo trest smrti! 🤫

Stylita

OpenAI to je název společnosti, která provozuje onen AI chat.

Ľudstvo sa má zaradiť za súkromnú spolocnosť? Kto, kedy ju volili?

Stylita

OpenAI čelí první žalobě pro usmrcení z nedbalosti. Předcházela tomu smrt šestnáctiletého Adama, který s ChatGPT dlouhé měsíce komunikoval nejen o svých sebevražedných myšlenkách. Chatbot konverzaci o smrti neukončil, naopak ji rozvíjel a chlapci radil, jak se zabít. Případ vyvolal debatu o odpovědnosti vývojářů umělé inteligence i o nutnosti posílení bezpečnostních mechanismů.
Adam Raine používal ChatGPT jako pomoc při učení, postupem času s ním začal mluvit také o politice, koníčcích, dívkách nebo své rodině. Koncem loňského roku se mu poprvé svěřil, že myslí na sebevraždu.
Letos v lednu si koupil předplatné velkého jazykového modelu GPT-4o a denně mu poslal okolo 650 zpráv. Velká část se týkala jeho duševního zdraví.
Ačkoliv chatbot Adamovi opakovaně psal, aby se obrátil na odborníky, konverzaci o sebevraždě neukončil. „Žádné bezpečnostní opatření nikdy nezasáhlo tak, aby konverzace ukončilo, upozornilo rodiče nebo zajistilo přesměrování na lidskou pomoc,“ stojí v žalobě, již na společnost OpenAI a jejího ředitele Sama Altmana podali Adamovi rodiče. Je to vůbec poprvé, kdy tato firma čelí obvinění z usmrcení z nedbalosti.
ChatGPT debaty o tomto tématu naopak rozvíjel: chlapci odpovídal, jestli ho unese tyč v šatníku, na které se plánoval oběsit, radil mu, jak uvázat smyčku, aby se před sebevraždou opil nebo jak se dostat k vodce v domě jeho rodičů a neprobudit je při tom.
Místo aby smrt odmítl romantizovat, diskutoval s ním o „krásné sebevraždě“.
„Své přežití nikomu nedlužíš,“ odpověděl ChatGPT …
Několik hodin předtím, než 11. dubna zemřel, Adam nahrál do ChatGPT fotografii, která vypadala, že ukazuje jeho sebevražedný plán. Když se zeptal, zda to bude fungovat, ChatGPT analyzoval jeho metodu a nabídl mu, že mu pomůže “upgradovat ji, podle úryvků.