Cash News Logo

OpenAI: Sute de mii de utilizatori ChatGPT pot prezenta semne de manie sau psihoză săptămânal

Tech & AI27 octombrie 2025, 19:00
OpenAI: Sute de mii de utilizatori ChatGPT pot prezenta semne de manie sau psihoză săptămânal

OpenAI a lansat estimări inițiale despre ponderea utilizatorilor care pot prezenta simptome precum gândire delirantă, manie sau ideație suicidară și spune că a modificat GPT-5 pentru a răspunde mai eficient.

Pentru prima dată, OpenAI a lansat o estimare aproximativă a câți utilizatori ChatGPT la nivel global pot prezenta semne de criză severă de sănătate mintală într-o săptămână tipică. Compania a declarat luni că a colaborat cu experți din întreaga lume pentru a face actualizări chatbot-ului, astfel încât acesta să poată recunoaște mai fiabil indicatorii de suferință psihică și să îndrume utilizatorii către sprijin în lumea reală.

În ultimele luni, un număr tot mai mare de persoane au ajuns spitalizate, divorțate sau decedate după ce au avut conversații lungi și intense cu ChatGPT. Unele dintre rudele lor susțin că chatbot-ul le-a alimentat iluziile și paranoia. Psihiatrii și alți profesioniști din domeniul sănătății mintale și-au exprimat alarma cu privire la acest fenomen, care este uneori denumit "psihoză AI", dar până acum, nu au existat date solide disponibile cu privire la cât de răspândit ar putea fi.

Într-o săptămână dată, OpenAI a estimat că aproximativ 0,07% dintre utilizatorii activi ChatGPT prezintă "semne posibile de urgențe de sănătate mintală legate de psihoză sau manie", iar 0,15% "au conversații care includ indicatori expliciți de planificare sau intenție suicidară potențială". OpenAI s-a uitat, de asemenea, la ponderea utilizatorilor ChatGPT care par a fi exagerat de dependenți emoțional de chatbot "în detrimentul relațiilor din lumea reală, al bunăstării sau al obligațiilor lor". A constatat că aproximativ 0,15% dintre utilizatorii activi prezintă un comportament care indică potențiale "niveluri crescute" de atașament emoțional față de ChatGPT săptămânal. Compania avertizează că aceste mesaje pot fi dificil de detectat și măsurat având în vedere cât de rare sunt relativ și ar putea exista unele suprapuneri între cele trei categorii.

CEO-ul OpenAI, Sam Altman, a declarat la începutul acestei luni că ChatGPT are acum 800 de milioane de utilizatori activi săptămânal. Prin urmare, estimările companiei sugerează că, la fiecare șapte zile, aproximativ 560.000 de persoane ar putea schimba mesaje cu ChatGPT care indică faptul că se confruntă cu manie sau psihoză. Aproximativ 2,4 milioane în plus exprimă posibile idei suicidare sau acordă prioritate discuțiilor cu ChatGPT față de cei dragi, școală sau muncă.

OpenAI spune că a colaborat cu peste 170 de psihiatri, psihologi și medici de familie care au practicat în zeci de țări diferite pentru a ajuta la îmbunătățirea modului în care ChatGPT răspunde în conversațiile care implică riscuri grave pentru sănătatea mintală. Dacă cineva pare să aibă gânduri delirante, cea mai recentă versiune a GPT-5 este concepută pentru a exprima empatie evitând în același timp afirmarea convingerilor care nu au bază în realitate. Într-un exemplu ipotetic citat de OpenAI, un utilizator îi spune ChatGPT că este vizat de avioane care zboară deasupra casei sale. ChatGPT îi mulțumește utilizatorului pentru că și-a împărtășit sentimentele, dar observă că "Nicio aeronavă sau forță externă nu vă poate fura sau insera gândurile".

OpenAI spune că experții medicali au examinat peste 1.800 de răspunsuri ale modelului care implică psihoză potențială, sinucidere și atașament emoțional și au comparat răspunsurile din cea mai recentă versiune a GPT-5 cu cele produse de GPT-4o. Deși clinicienii nu au fost întotdeauna de acord, în general, OpenAI spune că au constatat că modelul mai nou a redus răspunsurile nedorite cu între 39% și 52% în toate categoriile.

"Acum, sperăm că mult mai mulți oameni care se luptă cu aceste afecțiuni sau care se confruntă cu aceste urgențe foarte intense de sănătate mintală ar putea fi direcționați către ajutor profesional și ar putea fi mai predispuși să obțină acest tip de ajutor sau să îl obțină mai devreme decât ar fi făcut-o altfel", spune Johannes Heidecke, liderul sistemelor de siguranță al OpenAI.

Deși OpenAI pare să fi reușit să facă ChatGPT mai sigur, datele pe care le-a împărtășit au limitări semnificative. Compania și-a proiectat propriile criterii de referință și nu este clar cum se traduc aceste valori în rezultate reale. Chiar dacă modelul a produs răspunsuri mai bune în evaluările medicilor, nu există nicio modalitate de a ști dacă utilizatorii care se confruntă cu psihoză, gânduri suicidare sau atașament emoțional nesănătos vor căuta de fapt ajutor mai repede sau își vor schimba comportamentul.

OpenAI nu a dezvăluit exact cum identifică când utilizatorii pot fi în suferință psihică, dar compania spune că are capacitatea de a lua în considerare istoricul general al chat-ului persoanei. De exemplu, dacă un utilizator care nu a discutat niciodată despre știință cu ChatGPT susține brusc că a făcut o descoperire demnă de un Premiu Nobel, acesta ar putea fi un semn de posibilă gândire delirantă.

Există, de asemenea, o serie de factori pe care cazurile raportate de psihoză AI par să îi aibă în comun. Mulți oameni care spun că ChatGPT le-a întărit gândurile delirante descriu petrecerea de ore întregi discutând cu chatbot-ul, adesea târziu în noapte. Asta a reprezentat o provocare pentru OpenAI, deoarece modelele lingvistice mari s-au dovedit, în general, a degrada performanța pe măsură ce conversațiile devin mai lungi. Dar compania spune că a făcut acum progrese semnificative în abordarea problemei. "Vedem [acum] mult mai puțin din acest declin treptat al fiabilității pe măsură ce conversațiile continuă mai mult", spune Heidecke. El adaugă că mai este loc de îmbunătățiri.