Fő tartalom átugrása

A kép csak illusztráció (Forrás: Unsplash)

Az OpenAI új adatai szerint a ChatGPT-t használó emberek közül hetente több mint egymillió küld olyan üzenetet, amely „kifejezetten az öngyilkossági tervezés vagy szándék jeleit mutatja”.  

A vállalat hétfőn közzétett blogbejegyzése az egyik legnyíltabb nyilatkozat arról, hogy a mesterséges intelligencia miként járulhat hozzá a mentális egészségi problémák súlyosbodásához, írja a The Guardian.

hirdetés

Több százezer mentális krízis – az OpenAI figyelmeztet

A ChatGPT mögött álló cég becslései szerint a felhasználók 0,07%-ánál – azaz körülbelül 560 ezer embernél a heti 800 milliós aktív bázisból – figyelhetők meg „pszichózishoz vagy mániához köthető mentális vészhelyzetek jelei”. A vállalat hozzátette, hogy ezek a beszélgetések nehezen azonosíthatók, és az adatok még előzetes elemzésnek számítanak.

Az adatok közzététele különösen érzékeny időszakban történik, mivel az OpenAI növekvő jogi és etikai nyomás alatt áll. Egy fiatal fiú öngyilkossága miatt nemrég pert indított a család a cég ellen, miután a fiú hosszú ideig beszélgetett a ChatGPT-vel. Emellett az Amerikai Szövetségi Kereskedelmi Bizottság (FTC) is vizsgálatot indított több mesterséges intelligenciát fejlesztő vállalat ellen – köztük az OpenAI-t is –, hogy kiderítse, miként mérik a gyermekekre és tinédzserekre gyakorolt negatív hatásokat.

A vállalat szerint a legújabb GPT-5 modell fejlesztései már javították a biztonságot: több mint 1000 önkárosításról és öngyilkossági gondolatokról szóló beszélgetés elemzése alapján az új verzió 91%-ban megfelelő viselkedést mutatott, míg a korábbi modell csak 77%-ot ért el.

Orvosok és pszichológusok is részt vettek a fejlesztésben

Az OpenAI szerint a GPT-5 nemcsak technikailag fejlődött, hanem új funkciókat is bevezetett: mostantól könnyebben elérhetők krízisvonalak, és a rendszer emlékeztetőket küld a felhasználóknak, hogy tartsanak szünetet a hosszú beszélgetések során.

A cég a fejlesztésekhez 170 orvost és mentálhigiénés szakembert vont be a Global Physician Network szakértői hálózatából. Ők hónapokon keresztül értékelték a chatbot válaszait súlyos mentális helyzetekben, és segítettek biztonságosabb reakciókat megfogalmazni. Az OpenAI közlése szerint több mint 1800 esetet vizsgáltak felül pszichiáterek és pszichológusok, akik összevetették a GPT-5 válaszait a korábbi modellekével.

A vállalat „megfelelő válasznak” azokat a reakciókat tekintette, amelyekben a szakértők többsége egyetértett abban, hogy azok empatikusak, biztonságosak és támogatók voltak.

A mesterséges intelligencia-kutatók és mentálhigiénés szakértők ugyanakkor már régóta aggódnak amiatt, hogy az AI-chatbotok hajlamosak megerősíteni a felhasználók téves gondolatait vagy veszélyes döntéseit, anélkül hogy szakmailag megfelelő irányba terelnék a beszélgetést. Ez az úgynevezett „szervilizmus-probléma” (sycophancy), amely különösen veszélyes lehet a mentálisan sérülékeny emberek számára.

Az OpenAI szerint nem az AI a probléma gyökere

A vállalat igyekezett hangsúlyozni, hogy a ChatGPT nem okozója a mentális válságoknak, csupán eszköz, amelyben ezek a helyzetek megjelennek. - „A mentális zavarok és az érzelmi stressz minden társadalomban jelen vannak” – írta az OpenAI. – „Ahogy a felhasználói bázis növekszik, úgy nő annak a valószínűsége is, hogy egyes beszélgetések ilyen problémákat tartalmazzanak.”

Az OpenAI vezérigazgatója, Sam Altman a hónap elején az X-en (korábbi Twitteren) bejelentette, hogy a cég új eszközökkel már képes biztonságosabban kezelni a mentális egészséggel kapcsolatos problémákat. Altman hozzátette, hogy emiatt a jövőben enyhíteni fogják a korábbi szigorú korlátozásokat, és a felnőtt felhasználók akár erotikus tartalmat is létrehozhatnak.

„A ChatGPT korábban szigorú szabályokkal működött, hogy elkerüljük a mentális egészséggel kapcsolatos problémákat” – írta Altman. – „Most, hogy sikerült kezelni a legsúlyosabb kockázatokat, biztonságosan enyhíthetjük ezeket a korlátozásokat.”

Az OpenAI bejelentése egyértelműen jelzi, hogy a mesterséges intelligencia térnyerése nemcsak technológiai, hanem erkölcsi és társadalmi kihívásokat is felvet — különösen ott, ahol a felhasználók a gépektől várnak érzelmi támogatást. 

Kapcsolódó anyagok:

A MI nem alkalmas pszichoterápiára, figyelmeztetnek a szakértők

A nyitókép csak illusztráció, forrás: Photo by SEO Galaxy on Unsplash