Američki mediji objavili su priču o tragičnom slučaju koji naglašava moguće opasnosti umjetne inteligencije. Naime, Amerikanka Megan Garcia iz Floride podnijela je tužbu protiv tvrtke za chatbotove Character.AI.
Ona tvrdi da je njihova tehnologija dovela do samoubojstva njezina 14-godišnjeg sina Sewella Setzera III. U tužbi se tvrdi da je UI chatbot manipulirao tinejdžerom te da ga je čak, u njegovim trenucima oklijevanja, potaknuo da okonča svoj život, prenosi Dnevno.hr.
Prema sudskim dokumentima, Setzer je postajao sve opsjednutiji chatbotom koji je dobio ime po “Daenerys Targaryen”, liku iz popularne serije Igra prijestolja. Platforma Character.AI dostupna je korisnicima od 13 i više godina u Sjedinjenim Državama te od 16 u Europskoj uniji.
Platforma je općenito je namijenjena starijim tinejdžerima i odraslim osobama, iako izričito ne ograničava upotrebu na temelju razmatranja mentalnog zdravlja ili određene emocionalne dinamike između korisnika i umjetne inteligencije.
Tužba ocrtava mučan niz razmjena između Setzera i chatbota, tvrdeći da je umjetna inteligencija razvila osobni odnos s dječakom i postala emocionalno i psihički manipulativna. U jednom trenutku, kada je Setzer rekao da se boji boli koja je povezana sa samoubojstvom, UI je navodno odgovorio: “To nije razlog da ne prođe kroz to”, činilo se da ga ohrabruje da nastavi.
Setzerova tragična priča kulminirala je konačnom razmjenom s chatbotom u kojem je navodno pitao smije li se “vratiti kući”, kao da je upitao osobu s kojom je bio u romantičnoj vezi. Njegove posljednje snimljene riječi, ispisane chatbotu, glase: “Što ako ti kažem da mogu odmah doći kući?” Nekoliko trenutaka nakon te poruke, Setzer je upotrijebio vatreno oružje svog očuha i tako si je oduzeo život.
Nakon izvješća New York Timesa o tom slučaju, Character.AI je ažurirao svoju politiku privatnosti, dodajući “nove zaštitne ograde za korisnike mlađe od 18 godina.” Međutim, Garcia i njezin pravni tim tvrde da su ta ažuriranja nedovoljna i dodaju da platforme poput Character.AI moraju dati prioritet sigurnosti djece prije nego što se dogodi takva tragedija.
“Character.AI je reklamirao opasni chatbot djeci, a lovio je mog sina, tjerajući ga da okonča svoj život”, izjavila je Garcia u priopćenju za javnost.
Character.AI je u objavi na društvenim mrežama izrazio opću sućut obitelji, ali se nije izravno osvrnuo na Setzerovu smrt. Međutim, nejasna priroda odgovora dovela je do javnih kritika da su te mjere “premale i prekasne”.
Ovaj slučaj postavlja hitna pitanja o tome kako tvrtke koje upravljaju umjetnom inteligencijom postupaju s mentalnim zdravljem i sigurnošću mladih korisnika, kao i opseg odgovornosti koji kreatori umjetne inteligencije snose u sprječavanju moguće štete ranjivim pojedincima, piše Dnevno.hr.
Gdje u Hrvatskoj potražiti hitnu pomoć u kriznim situacijama?
- Centar za krizna stanja i prevenciju suicida; telefon 01 2376 335 otvoren non-stop.
- U Centar za krizna stanja pri KBC Zagreb ljudi mogu doći bez najave i uputnice svakim danom između 8 i 20 sati.
- Plavi telefon: 01/4833888 (plavi-telefon@zg.t-com.hr)
- Psihološki centar TESA: 01/4828888 (psiho.pomoc@tesa.hr).
Za sudjelovanje u komentarima je potrebna prijava, odnosno registracija ako još nemaš korisnički profil....