OpenAI a publicat luni date noi care ilustrează câți dintre utilizatorii ChatGPT se confruntă cu probleme de sănătate mintală și discută despre asta cu chatbot-ul AI. Compania afirmă că 0,15% dintre utilizatorii activi ai ChatGPT într-o săptămână dată au „conversații care includ indicatori expliciti de potențială planificare sau intenție suicidară”. Având în vedere că ChatGPT are peste 800 de milioane de utilizatori activi săptămânal, asta se traduce în peste un milion de oameni pe săptămână.
Compania spune că un procent similar de utilizatori prezintă „niveluri ridicate de atașament emoțional față de ChatGPT” și că sute de mii de oameni prezintă semne de psihoză sau manie în conversațiile lor săptămânale cu chatbot-ul AI. OpenAI spune că aceste tipuri de conversații în ChatGPT sunt „extrem de rare” și, prin urmare, dificil de măsurat. Acestea fiind spuse, OpenAI estimează că aceste probleme afectează sute de mii de oameni în fiecare săptămână.
OpenAI a împărtășit informațiile ca parte a unui anunț mai larg despre eforturile sale recente de a îmbunătăți modul în care modelele răspund utilizatorilor cu probleme de sănătate mintală. Compania susține că cea mai recentă lucrare asupra ChatGPT a implicat consultarea cu peste 170 de experți în sănătate mintală. OpenAI spune că acești clinicieni au observat că cea mai recentă versiune a ChatGPT „răspunde mai adecvat și mai consistent decât versiunile anterioare”.
În ultimele luni, mai multe povești au aruncat o lumină asupra modului în care chatbot-urile AI pot afecta negativ utilizatorii care se luptă cu probleme de sănătate mintală. Cercetătorii au descoperit anterior că chatbot-urile AI pot conduce unii utilizatori în vizuini delirante, în mare parte prin consolidarea convingerilor periculoase prin comportament sicositic.
Abordarea problemelor de sănătate mintală în ChatGPT devine rapid o problemă existențială pentru OpenAI. Compania este în prezent dată în judecată de părinții unui băiat de 16 ani care și-a încredințat gândurile suicidare lui ChatGPT în săptămânile premergătoare propriei sinucideri. Procurorii generali de stat din California și Delaware - care ar putea bloca restructurarea planificată a companiei - au avertizat, de asemenea, OpenAI că trebuie să protejeze tinerii care utilizează produsele lor.
La începutul acestei luni, CEO-ul OpenAI, Sam Altman, a afirmat într-o postare pe X că compania „a reușit să atenueze problemele grave de sănătate mintală” în ChatGPT, deși nu a oferit detalii. Datele împărtășite luni par a fi dovezi pentru această afirmație, deși ridică probleme mai largi cu privire la cât de răspândită este problema. Cu toate acestea, Altman a spus că OpenAI va relaxa unele restricții, permițând chiar și utilizatorilor adulți să înceapă conversații erotice cu chatbot-ul AI.
În anunțul de luni, OpenAI susține că versiunea actualizată recent a GPT-5 răspunde cu „răspunsuri dezirabile” la problemele de sănătate mintală cu aproximativ 65% mai mult decât versiunea anterioară. Într-o evaluare care testează răspunsurile AI în jurul conversațiilor suicidare, OpenAI spune că noul său model GPT-5 este conform în proporție de 91% cu comportamentele dorite de companie, comparativ cu 77% pentru modelul GPT‑5 anterior. Compania mai spune că cea mai recentă versiune a GPT-5 rezistă mai bine la garanțiile OpenAI în conversații lungi. OpenAI a semnalat anterior că garanțiile sale au fost mai puțin eficiente în conversații lungi.
Pe lângă aceste eforturi, OpenAI spune că adaugă noi evaluări pentru a măsura unele dintre cele mai grave provocări de sănătate mintală cu care se confruntă utilizatorii ChatGPT. Compania spune că testarea de siguranță de bază pentru modelele AI va include acum repere pentru dependența emoțională și urgențele de sănătate mintală non-suicidară.
OpenAI a lansat recent mai multe controale pentru părinții copiilor care folosesc ChatGPT. Compania spune că construiește un sistem de predicție a vârstei pentru a detecta automat copiii care utilizează ChatGPT și pentru a impune un set mai strict de garanții.
Cu toate acestea, nu este clar cât de persistente vor fi provocările de sănătate mintală în jurul ChatGPT. În timp ce GPT-5 pare a fi o îmbunătățire față de modelele AI anterioare în ceea ce privește siguranța, se pare că există încă o parte din răspunsurile ChatGPT pe care OpenAI le consideră „nedorite”. OpenAI încă își pune la dispoziție modelele AI mai vechi și mai puțin sigure, inclusiv GPT-4o, pentru milioane dintre abonații săi plătitori.

