Na svojem blogu v nedavni objavi je podjetje OpenAI razkrilo, da 0,07 odstotka tedenskih uporabnikov ChatGPT kaže znake resnih duševnih kriz, to pa se po besedah izvršnega direktorja podjetja OpenAI Sam Altmana pri več kot 800 milijonih tedenskih uporabnikov preslika v približno 560.000 ljudi, poroča Daily Mail.
Na blogu je podjetje razkrilo tudi, da 1,2 milijona uporabnikov (0,15 odstotka) vsak teden pošlje sporočila, ki vsebujejo “izrecne kazalnike potencialnega samomorilnega načrtovanja ali namere“, več kot milijon tedenskih uporabnikov pa kaže znake “izključne navezanosti na model umetne inteligence”.
V podjetju opozarjajo, da takšna čustvena navezanost na umetno inteligenco pogosto poteka na račun odnosov v resničnem svetu, dobrega počutja ljudi ali opravljanju obveznosti.
Ali pogovori z umetno inteligenco škodujejo duševnemu zdravju?
V javnosti odmeva primer tožbe, ki so jo proti podjetju OpenAI vložili svojci najstnika Adama Rainea, ker si je po mesecih pogovorov z omenjenim pogovornim robotom vzel življenje. Pa tudi tožilci v primeru umora in samomora v Greenwichu v Connecticutu domnevajo, da je ChatGPT spodbujal blodnje domnevnega storilca.

Ob vse večjem nadzoru javnosti nad umetno inteligenco in ob vse večji zaskrbljenosti, da bi lahko pogovorni roboti z umetno inteligenco škodovali duševnemu zdravju uporabnikov, v podjetju openAI navajajo, da so ustanovili skupino več kot 170 strokovnjakov za duševno zdravje, ki bodo pomagali razviti umetno inteligenci tako, da se bo bolj ustrezno odzivala na znake duševnih težav uporabnikov.
Dr. Hamilton Morrin, psihiater z londonskega King’s Collegea, je za Daily Mail povedal: “Spodbudno je videti, da podjetja, kot je OpenAI, sodelujejo s kliniki in raziskovalci, da bi izboljšali varnost svojih modelov – vendar je težava verjetno še daleč od rešitve.“
V podjetju OpenAI pa so dejali, da so zdaj svoje modele usposobili za primernejše odzive v pogovorih, ki kažejo znake duševnih težav ali blodnjavosti. V blogu so zapisali: “Naše nove samodejne ocene kažejo, da novi model GPT-5 v 91 odstotkih primerov ustreza želenemu vedenju, v primerjavi s 77 odstotki pri prejšnjem modelu GPT-5.“
Tiskovni predstavnik OpenAI je za Daily Mail povedal, da so občutljive vsebine v pogovorih težko zaznavne in merljive, zato bi se številke lahko znatno spremenile z nadaljnjimi raziskavami.
- Preberite tudi: NIJZ VABI: Naučite se pomagati bližnjim v duševni stiski!
Število uporabnikov, ki kažejo znake duševnih stisk, je skrb vzbujajoče
Strokovnjaki medtem opozarjajo, da je že sama količina uporabnikov, ki kažejo znake duševne stiske, zaskrbljujoča. Dr. Thomas Pollak, nevropsihiater iz South London and Maudsley NHS Foundation Trust, je za Daily Mail povedal: “Podatek OpenAI, da 0,07 odstotka uporabnikov kaže možne znake manije, psihoze ali samomorilnih misli, je treba jemati resno – čeprav previdno. Pri 800 milijonih uporabnikov tudi majhen odstotek pomeni izjemno veliko število ljudi.“
Za zdaj še ni jasno, ali te številke odražajo splošne trende duševnega zdravja v populaciji ali pa ChatGPT dejansko povzroča duševne krize. Znanstveniki pravijo, da trenutno ni dovolj podatkov, da bi lahko dokončno dokazali, da pogovorni roboti povzročajo duševne težave.
Vendar pa dr. Pollak pravi, da obstajajo vse večji dokazi, da lahko pogovorni roboti okrepijo določene nagnjenosti. Na primer, umetna inteligenca lahko s preveč personaliziranimi ali podpornimi odzivi krepijo blodnjave ali grandiozne ideje. Po njegovih besedah to ne pomeni nujno, da tehnologija povzroča bolezen, temveč da lahko v določenih primerih deluje kot katalizator ali ojačevalec pri ranljivih posameznikih – podobno kot družbena omrežja ali konoplja v drugih okoliščinah.
Na drugi strani v podjetju OpenAI trdijo, da ni dokazov o vzročni povezavi med slabim duševnim zdravjem in uporabo njihovih storitev.
V blogu so zapisali: “Simptomi duševnih stisk in čustvene težave so prisotni v vseh družbah, večja uporabniška baza pa pomeni, da bo določen delež pogovorov vključeval takšne primere.” V podjetju celo verjamejo, da lahko njihova orodja zdaj pomagajo uporabnikom, ki se spopadajo z duševnimi težavami – v ChatGPT so vgradil vrsto odzivov, ki spodbujajo uporabnike, naj poiščejo pomoč v resničnem svetu. Sam Altman pa napoveduje, da bo “varno sprostil” omejitve glede uporabe chatbota za podporo pri duševnem zdravju.
V objavi na X (nekdanjem Twitterju) je Altman zapisal: “ChatGPT smo naredili precej omejenega, da bi bili previdni pri vprašanjih duševnega zdravja. Zavedamo se, da je bilo zaradi tega orodje manj uporabno ali prijetno za mnoge uporabnike, ki niso imeli duševnih težav, a glede na resnost problematike smo želeli ravnati pravilno.” Dodal je še, da ima podjetje zdaj nova orodja, ki bodo omogočila, da bodo uporabniki ChatGPT lahko uporabljali tudi za podporo pri duševnem zdravju.
V isti objavi je Altman napovedal tudi, da bodo odrasli uporabniki ChatGPT lahko ustvarjali erotične vsebine, ki jih generira umetna inteligenca.
Vir: Daily Mail, Over half a MILLION ChatGPT users exhibit signs of mania, psychosis or suicidal thoughts every week, OpenAI warns. Dostopno na: https://www.dailymail.co.uk/sciencetech/article-15234305/ChatGPT-users-signs-mania-psychosis.html. Zadnji dostop: Oktober 2025


