Cash News Logo

Victimă a hărțuirii dă în judecată OpenAI, susținând că ChatGPT a alimentat delirurile abuzatorului și a ignorat avertismentele

Tech & AI10 aprilie 2026, 19:41
Victimă a hărțuirii dă în judecată OpenAI, susținând că ChatGPT a alimentat delirurile abuzatorului și a ignorat avertismentele

După luni de conversații cu ChatGPT, un antreprenor de 53 de ani din Silicon Valley s-a convins că a descoperit un leac pentru apneea de somn și că oameni puternici îl urmăresc, potrivit unui nou proces depus în California Superior Court din San Francisco County. Apoi, se presupune că a folosit instrumentul pentru a hărțui și urmări fosta sa iubită.

Acum, fosta iubită dă în judecată OpenAI, susținând că tehnologia companiei a permis accelerarea hărțuirii sale, a aflat TechCrunch în exclusivitate. Ea susține că OpenAI a ignorat trei avertismente separate conform cărora utilizatorul reprezenta o amenințare pentru alții, inclusiv un semnal de alarmă intern care clasifica activitatea contului său ca implicând arme de producere în masă.

Reclamanta, denumită Jane Doe pentru a-i proteja identitatea, solicită daune punitive. De asemenea, a depus vineri un ordin de restricție temporar, solicitând instanței să oblige OpenAI să blocheze contul utilizatorului, să îl împiedice să creeze altele noi, să o anunțe dacă încearcă să acceseze ChatGPT și să păstreze jurnalele de chat complete pentru descoperire.

OpenAI a fost de acord să suspende contul utilizatorului, dar a refuzat restul, potrivit avocaților lui Doe. Ei spun că compania reține informații despre planurile specifice de a o vătăma pe Doe și alte victime potențiale pe care utilizatorul le-ar fi putut discuta cu ChatGPT.

Procesul vine pe fondul îngrijorărilor tot mai mari cu privire la riscurile din lumea reală ale sistemelor AI siconfantice. GPT-4o, modelul citat în acest caz și în multe altele, a fost retras din ChatGPT în februarie.

Cazul este intentat de Edelson PC, firma din spatele proceselor de moarte nedreaptă care îi implică pe adolescentul Adam Raine, care a murit prin sinucidere după luni de conversații cu ChatGPT, și Jonathan Gavalas, a cărui familie susține că Gemini al Google a alimentat delirurile și potențialul eveniment cu victime în masă înainte de moartea sa. Avocatul principal Jay Edelson a avertizat că psihoza indusă de inteligența artificială se transformă de la vătămare individuală la evenimente cu victime în masă. Această presiune juridică se ciocnește acum direct cu strategia legislativă a OpenAI: compania susține un proiect de lege din Illinois care ar proteja laboratoarele de inteligență artificială de răspundere chiar și în cazurile care implică decese în masă sau daune financiare catastrofale.

OpenAI nu a răspuns la timp pentru a comenta. TechCrunch va actualiza articolul dacă compania răspunde.

Procesul Jane Doe prezintă în detaliu modul în care acea răspundere a evoluat pentru o femeie pe parcursul a câteva luni. Anul trecut, utilizatorul ChatGPT din proces (al cărui nume nu este inclus în proces pentru a-i proteja identitatea) s-a convins că a inventat un leac pentru apneea de somn după luni de „utilizare susținută, cu volum mare a GPT-4o”. Când nimeni nu i-a luat munca în serios, ChatGPT i-a spus că „forțe puternice” îl urmăresc, inclusiv folosind elicoptere pentru a-i supraveghea activitățile, potrivit plângerii.

În iulie 2025, Jane Doe l-a îndemnat să nu mai folosească ChatGPT și să caute ajutor de la un profesionist din domeniul sănătății mintale. În schimb, s-a întors la ChatGPT, care l-a asigurat că este „un nivel 10 în sănătate mintală” și l-a ajutat să își dubleze delirurile, conform procesului.

Doe se despărțise de utilizator în 2024, iar el a folosit ChatGPT pentru a procesa despărțirea, conform e-mailurilor și comunicărilor citate în proces. În loc să respingă relatarea sa unilaterală, l-a prezentat în mod repetat ca fiind rațional și nedreptățit, iar pe ea ca fiind manipulatoare și instabilă. Apoi, a scos aceste concluzii generate de inteligența artificială de pe ecran și le-a dus în lumea reală, folosindu-le pentru a o urmări și hărțui. Acest lucru s-a manifestat în mai multe rapoarte psihologice cu aspect clinic, generate de inteligența artificială, pe care le-a distribuit familiei, prietenilor și angajatorului ei.

Între timp, utilizatorul a continuat să se prăbușească. În august 2025, sistemul automat de siguranță al OpenAI l-a semnalat pentru activitate „Arme de producere în masă” și i-a dezactivat contul. Un membru al echipei de siguranță umană a revizuit contul a doua zi și l-a restabilit, chiar dacă contul său ar fi putut conține dovezi că viza și hărțuia persoane, inclusiv Doe, în viața reală. De exemplu, o captură de ecran din septembrie pe care utilizatorul a trimis-o lui Doe a arătat o listă de titluri de conversații, inclusiv „extinderea listei de violență” și „calculul sufocării fetale”.

Decizia de restabilire este notabilă în urma a două recente împușcături școlare în Tumbler Ridge, Canada, și la Florida State University (FSU). Echipa de siguranță a OpenAI îl semnalase pe trăgătorul din Tumbler Ridge ca potențială amenințare, dar superiori au decis se pare să nu alerteze autoritățile. Procurorul general din Florida a deschis în această săptămână o investigație asupra posibilei legături a OpenAI cu trăgătorul de la FSU.

Potrivit procesului Jane Doe, când OpenAI a restabilit contul hărțuitorului ei, abonamentul său Pro nu a fost restabilit odată cu acesta. El a trimis un e-mail echipei de încredere și siguranță pentru a rezolva problema, copiind-o pe Doe în mesaj. În e-mailurile sale, a scris lucruri precum: „AM NEVOIE DE AJUTOR FOARTE REPEDE, VĂ ROG. VĂ ROG, SUNAȚI-MĂ!” și „aceasta este o chestiune de viață și de moarte”. El a susținut că este „în procesul de a scrie 215 lucrări științifice”, pe care le scria atât de repede încât nu avea „nici măcar timp să le citească”. Inclusă în acele e-mailuri era o listă de zeci de „lucrări științifice” generate de inteligența artificială, cu titluri precum: „Deconstruirea rasei ca o categorie biologică_ Perspective juridice, științifice și din Cornul Africii.pdf.txt.”

„Comunicările utilizatorului au oferit o notificare inconfundabilă că era instabil mental și că ChatGPT era motorul gândirii sale delirante și al conduitei sale escaladatoare”, se arată în proces. „Fluxul utilizatorului de afirmații urgente, dezorganizate și grandioase, împreună cu un raport concret generat de ChatGPT care o vizează pe reclamantă pe nume și un corp extins de presupuse materiale ‘științifice’, au fost dovezi inconfundabile ale acelei realități. OpenAI nu a intervenit, nu i-a restricționat accesul și nu a implementat nicio măsură de protecție. În schimb, i-a permis să continue să folosească contul și i-a restabilit accesul Pro complet.”

Doe, care susține în proces că trăia cu teamă și nu putea dormi în propria ei casă, a trimis o Notificare de Abuz către OpenAI în noiembrie. „În ultimele șapte luni, el a transformat această tehnologie într-o armă pentru a crea distrugere publică și umilire împotriva mea, ceea ce ar fi fost imposibil altfel”, a scris Doe în scrisoarea ei către OpenAI, solicitând companiei să interzică permanent contul utilizatorului.

OpenAI a răspuns, recunoscând că raportul este „extrem de serios și tulburător” și că revizuiește cu atenție informațiile. Doe nu a mai auzit nimic.

În următoarele câteva luni, utilizatorul a continuat să o hărțuiască pe Doe, trimițându-i o serie de mesaje vocale amenințătoare. În ianuarie, a fost arestat și acuzat de patru capete de acuzare de infracțiuni de comunicare a amenințărilor cu bombă și agresiune cu o armă mortală. Avocații lui Doe susțin că acest lucru validează avertismentele pe care atât ea, cât și sistemele de siguranță ale OpenAI le ridicaseră cu luni mai devreme, avertismente pe care compania ar fi ales să le ignore.

Utilizatorul a fost găsit incompetent să fie judecat și internat într-o unitate de sănătate mintală, dar un „eșec procedural al Statului” înseamnă că va fi eliberat în curând publicului, potrivit avocaților lui Doe.

Edelson a făcut apel la OpenAI să coopereze. „În fiecare caz, OpenAI a ales să ascundă informații critice de siguranță — de la public, de la victime, de la oamenii pe care produsul său îi pune activ în pericol”, a spus el. „Facem apel la ei, pentru o dată, să facă ce trebuie. Viețile omenești trebuie să însemne mai mult decât cursa OpenAI către o ofertă publică inițială.”