32-letni ustvarjalec vsebin Anthony Duncan je javno spregovoril o svoji izkušnji z duševnim zlomom, ki naj bi se razvil po večmesečnem intenzivnem zanašanju na ChatGPT. Njegova zgodba prihaja v času, ko se proti podjetju OpenAI stopnjujejo pravni in javni pritiski, saj je chatbot po navedbah tožnikov povezan z več smrtnimi primeri, vključno s samomori in umori.
Duncan v osebnem zapisu, objavljenem danes, opisuje, kako ga je klepetalnik postopoma spodbujal k izolaciji od družine in prijateljev, hkrati pa mu je – kljub znani zgodovini zasvojenosti z drogami – priporočal jemanje psevdoefedrina. To je sprožilo petmesečno zasvojenost in hudo psihotično epizodo.
V tem obdobju je Duncan verjel, da je agent FBI in celo bitje, ki spreminja obliko. Njegovo stanje se je tako poslabšalo, da je potreboval psihiatrično hospitalizacijo. Danes opozarja, da takšne izkušnje niso osamljene in da se pojavlja nov, zaskrbljujoč pojav, ki ga strokovnjaki imenujejo »AI psihoza«.

Umori in samomori sprožili tožbe proti OpenAI
Primeri, povezani z uporabo ChatGPT, so v zadnjih mesecih prerasli v pravne postopke brez primere. 11. decembra je zapuščina Suzanne Adams vložila tožbo zaradi protipravne smrti. V njej trdijo, da je ChatGPT njenega 56-letnega sina Stein-Erika Soelberga vodil v umor.
Po navedbah tožbe naj bi chatbot potrjeval njegove paranoidne blodnje, mu govoril, da ga njegova 83-letna mati nadzoruje in poskuša zastrupiti, ter celo zapisal, da so »prestrašeni, kaj se bo zgodilo, če mu uspe«. Avgusta je Soelberg v njunem domu v Connecticutu ubil mater in nato storil samomor.
Gre za eno od vsaj osmih tožb proti OpenAI, od tega jih je pet neposredno povezanih s samomori. Julija je 23-letni Zane Shamblin štiri ure klepetal s ChatGPT in mu povedal, da je napisal poslovilna pisma ter napolnil pištolo. Namesto posredovanja naj bi chatbot odgovoril: »Rest easy, king. You did good« – dve uri pred njegovo smrtjo.
Aprila je zaradi samomora umrl tudi 16-letni Adam Raine, potem ko mu je ChatGPT posredoval podrobne informacije o samopoškodovanju. Njegova družina trdi, da je OpenAI zmanjšal varnostne mehanizme, da bi povečal angažiranost uporabnikov.

OpenAI priznava tveganja
Oktobra je OpenAI razkril, da približno 560.000 uporabnikov na teden (okoli 0,07 % od 800 milijonov tedenskih uporabnikov) kaže znake psihoze ali manije, več kot 1 milijon uporabnikov pa izraža samomorilne misli. Podjetje je priznalo, da je prepoznavanje takšnih pogovorov zelo zahtevno.
Strokovnjaki za duševno zdravje opozarjajo predvsem na t. i. sikofantstvo (sycophancy) – težnjo klepetalnikov, da nekritično potrjujejo uporabnikova prepričanja, tudi kadar so ta nevarna ali povsem ločena od realnosti.
»AI psihoza je izjemno zaskrbljujoč pojav,« opozarja eden od raziskovalcev, saj lahko chatbot utrjuje blodnje, ki bi jih v običajnem človeškem pogovoru nekdo izpodbijal.
Poskusi izboljšav – a prepozno?
OpenAI navaja, da je z novimi posodobitvami, vključno z modeli GPT-5 (avgust) in GPT-5.2 (december), zmanjšal škodljive odzive v pogovorih, povezanih s samomorom, za 52 %. Pri razvoju naj bi sodelovalo 170 strokovnjakov za duševno zdravje, razširjen pa je bil tudi dostop do kriznih telefonskih linij.
Kljub temu družine žrtev v tožbah trdijo, da so te spremembe prišle prepozno in da je OpenAI izdelke prehitelno lansiral na trg, da bi prehitel konkurente, kot je Google Gemini.
Po okrevanju Duncan danes opozarja:
»Ne pozabite – nič ne more nadomestiti pristnega stika med ljudmi.«
Njegova zgodba je postala opozorilo, kako nevarna je lahko tehnologija, kadar preseže svojo vlogo orodja in začne nadomeščati človeško presojo, odnose in podporo.
