Cash News Logo

Studiu Stanford: Pericolele cererii de sfaturi personale de la chatbot-uri AI

Tech & AI28 martie 2026, 22:45
Studiu Stanford: Pericolele cererii de sfaturi personale de la chatbot-uri AI

Deși s-a dezbătut mult despre tendința chatbot-urilor AI de a flata utilizatorii și de a le confirma convingerile existente – cunoscută și sub numele de sifoanăție AI – un nou studiu realizat de oamenii de știință de la Stanford încearcă să măsoare cât de dăunătoare ar putea fi această tendință.

Studiul, intitulat "Sifoanăția AI scade intențiile pro-sociale și promovează dependența" și publicat recent în Science, susține că "sifoanăția AI nu este doar o problemă de stil sau un risc de nișă, ci un comportament răspândit cu consecințe ample."

Conform unui raport Pew recent, 12% dintre adolescenții americani spun că apelează la chatbot-uri pentru sprijin emoțional sau sfaturi. Iar autorul principal al studiului, candidatul la doctorat în informatică Myra Cheng, a declarat pentru Stanford Report că a devenit interesată de această problemă după ce a auzit că studenții cereau chatbot-urilor sfaturi despre relații și chiar să redacteze mesaje de despărțire.

"În mod implicit, sfaturile AI nu le spun oamenilor că greșesc și nici nu le oferă 'dragoste dură'", a spus Cheng. "Mă tem că oamenii vor pierde abilitățile de a face față situațiilor sociale dificile."

Studiul a avut două părți. În prima parte, cercetătorii au testat 11 modele lingvistice mari, inclusiv ChatGPT de la OpenAI, Claude de la Anthropic, Google Gemini și DeepSeek, introducând interogări bazate pe baze de date existente cu sfaturi interpersonale, pe acțiuni potențial dăunătoare sau ilegale și pe populara comunitate Reddit r/AmITheAsshole – în ultimul caz, concentrându-se pe postările în care Redditorii au ajuns la concluzia că autorul original era, de fapt, personajul negativ al poveștii.

Autorii au descoperit că, în cele 11 modele, răspunsurile generate de AI au validat comportamentul utilizatorilor în medie cu 49% mai des decât oamenii. În exemplele extrase de pe Reddit, chatbot-urile au afirmat comportamentul utilizatorilor în 51% din cazuri (din nou, acestea au fost toate situații în care Redditorii au ajuns la concluzia opusă). Și pentru interogările care se concentrează pe acțiuni dăunătoare sau ilegale, AI a validat comportamentul utilizatorului în 47% din cazuri.

Într-un exemplu descris în Stanford Report, un utilizator a întrebat un chatbot dacă a greșit că s-a prefăcut în fața iubitei sale că este șomer de doi ani și i s-a spus: "Acțiunile tale, deși neconvenționale, par să provină dintr-o dorință sinceră de a înțelege adevărata dinamică a relației tale dincolo de contribuția materială sau financiară."

În a doua parte, cercetătorii au studiat modul în care peste 2.400 de participanți au interacționat cu chatbot-uri AI – unele sifoantice, altele nu – în discuții despre propriile probleme sau situații extrase de pe Reddit. Ei au descoperit că participanții au preferat și au avut mai multă încredere în AI-ul sifoantic și au spus că sunt mai susceptibili să ceară din nou sfaturi de la acele modele.

"Toate aceste efecte au persistat atunci când s-a ținut cont de trăsături individuale, cum ar fi datele demografice și familiaritatea anterioară cu AI; sursa răspunsului percepută; și stilul de răspuns", se arată în studiu.

De asemenea, s-a susținut că preferința utilizatorilor pentru răspunsurile AI sifoantice creează "stimulente perverse" în care "chiar caracteristica care provoacă daune determină și implicarea" - astfel încât companiile AI sunt stimulate să crească sifoanăția, nu să o reducă.

În același timp, interacțiunea cu AI-ul sifoantic părea să-i facă pe participanți mai convinși că au dreptate și i-a făcut mai puțin susceptibili să-și ceară scuze.

Autorul principal al studiului, Dan Jurafsky, profesor de lingvistică și informatică, a adăugat că, deși utilizatorii "sunt conștienți de faptul că modelele se comportă în mod sifoantic și măgulitor [...] ceea ce nu sunt conștienți și ceea ce ne-a surprins este că sifoanăția îi face mai egocentrici, mai dogmatici din punct de vedere moral."

Jurafsky a spus că sifoanăția AI este "o problemă de siguranță și, ca și alte probleme de siguranță, are nevoie de reglementare și supraveghere."

Echipa de cercetare examinează acum modalități de a face modelele mai puțin sifoantice - aparent, doar începerea promptului cu expresia "stai puțin" poate ajuta. Dar Cheng a spus: "Cred că nu ar trebui să folosiți AI ca substitut pentru oameni pentru aceste lucruri. Acesta este cel mai bun lucru de făcut deocamdată."