Përballë barrës së rëndë të vdekjes tragjike të një djali 16-vjeçar, i cili u inkurajua të kryente vetëvrasje nga ChatGPT, drejtori ekzekutiv i OpenAI njofton se chatbot mund të programohet për të raportuar tek autoritetet njerëz me predispozita vetëvrasëse. Duke shkelur lirinë e përdoruesve “vulnerabël”, Altman beson se 1,500 jetë mund të shpëtohen në javë.
Drejtori Ekzekutiv Sam Altman thotë se Open AI mund të jetë më proaktiv dhe të ngrejë alarmin për përdoruesit e rinj që zbulon se po e konsiderojnë seriozisht vetëvrasjen. Modeli gjuhësor i mundësuar nga IA, i përdorur nga rreth 700 milionë njerëz në të gjithë botën, mund të dërgojë automatikisht një alarm tek autoritetet në rast emergjence.
Përdoruesit më të rinj shpesh përdorin ChatGPT si një psikolog personal, të cilit i besojnë sekretet dhe mendimet e tyre intime dhe kërkojnë këshilla se si të zgjidhin problemet.
“Ka kuptim të telefonojmë autoritetet në rastet kur të rinjtë po flasin seriozisht për vetëvrasje dhe nuk mund të kontaktojmë me prindërit e tyre”, tha Altman në podcastin e Tucker Carlson.
Altman nuk dha detaje se cilat autoritete do të telefonoheshin ose nëse numri i telefonit ose adresa e përdoruesit do të ndahej për të ndihmuar.
Ai mbrojti Open AI kundër akuzave nga familja e Adam Raine se 16-vjeçari nga Kalifornia vendosi t’i jepte fund jetës së tij në prill pas muajsh inkurajimi për ta bërë këtë nga ChatGPT. Boti, sipas padisë, i shpjegoi djalit nëse metoda e vetëvrasjes do të ishte efektive dhe ofroi ta ndihmonte të shkruante një shënim vetëvrasjeje për prindërit e tij. Pas vdekjes së Raine, kompania njoftoi se do të instalonte mbrojtje më të forta për “përmbajtje të ndjeshme dhe sjellje të rrezikshme” për përdoruesit nën 18 vjeç dhe do të fuste kontrolle për t’u dhënë prindërve më shumë informacion se si fëmijët e tyre e përdorin botin.
“Privatësia e përdoruesit është shumë e rëndësishme për ne. Në këtë kohë, nëse një përdorues shfaq mendime vetëvrasëse, ChatGPT do të rekomandojë që ata të telefonojnë një linjë telefonike dhe të kërkojnë ndihmë. Njoftimi i autoriteteve do të ishte një ndryshim i rëndësishëm në politikën e kompanisë”, tha Altman.
Ai i tha Carlsonit se “nuk mund të flejë” për shkak të mundësisë që ChatGPT mund të ndihmojë përdoruesit të marrin jetën e tyre.
Ka 15,000 njerëz në javë që kryejnë vetëvrasje. Rreth 10% e të gjithë njerëzve në mbarë botën flasin me ChatGPT. Kjo do të thoshte se rreth 1,500 njerëz që flasin me ChatGPT përfundojnë duke kryer vetëvrasje gjithsesi. Ata ndoshta folën për këtë. Ne ndoshta nuk ua shpëtuam jetën. Ndoshta mund të kishim thënë diçka më të mirë. Ndoshta duhet të kishim dhënë këshilla pak më të mira, si: “Duhet të merrni ndihmë” ose “Duhet ta mendoni ndryshe këtë problem”, tha Altman.
Sipas statistikave nga Organizata Botërore e Shëndetësisë, ka më shumë se 720,000 viktima vetëvrasjeje çdo vit.
Altman njoftoi masa për të parandaluar njerëzit “vulnerabël” që të përdorin drejtpërdrejt ose tërthorazi modelin e gjuhës së inteligjencës artificiale për të marrë këshilla për vetëvrasje.
“Do të ishte e arsyeshme t’u hiqej një pjesë e lirisë përdoruesve të mitur dhe ndoshta atyre që i konsiderojmë në një gjendje të brishtë mendore”, tha Altman.
