Cash News Logo

Excesul de informații împărtășite cu inteligența artificială: Cum conversațiile tale cu ChatGPT ar putea fi folosite împotriva ta - The Independent

Tech & AI20 octombrie 2025, 01:03
Excesul de informații împărtășite cu inteligența artificială: Cum conversațiile tale cu ChatGPT ar putea fi folosite împotriva ta - The Independent

Excesul de informații împărtășite cu inteligența artificială: Cum conversațiile tale cu ChatGPT ar putea fi folosite împotriva ta

Oamenii tratează chatbot-urile AI ca pe niște consilieri, confidenți și chiar complici, scrie Anthony Cuthbertson. Dar, fără protecții legale și cu actori prădători care caută să monetizeze și să exploateze această nouă comoară de date profund intime, a sosit o nouă judecată tehnologică.

În primele ore ale zilei de 28 august, o parcare liniștită de pe un campus universitar din Missouri a devenit scena unui act violent de vandalism. În decurs de 45 de minute, 17 mașini au rămas cu geamuri sparte, oglinzi rupte, ștergătoare smulse și șasiuri îndoite, provocând daune de zeci de mii de dolari.

După o investigație de o lună, poliția a adunat dovezi care includeau urme de pantofi, declarații ale martorilor și imagini de pe camerele de supraveghere. Dar o presupusă mărturisire către ChatGPT a dus în cele din urmă la acuzații împotriva studentului Ryan Schaefer, în vârstă de 19 ani. În conversațiile cu chatbot-ul AI la scurt timp după incident, Schaefer a descris carnagiul aplicației de pe telefonul său și a întrebat: „cât de f**ut sunt frate?.. Ce se întâmplă dacă am distrus mai multe mașini?”

Se pare că este primul caz în care cineva se incriminează prin intermediul tehnologiei, poliția citând „dialogul tulburător” într-un raport care detaliază acuzațiile împotriva lui Schaefer. La mai puțin de o săptămână mai târziu, ChatGPT a fost menționat din nou într-o declarație sub jurământ, de data aceasta pentru o crimă mult mai mediatizată. Jonathan Rinderknecht, în vârstă de 29 de ani, a fost arestat pentru că ar fi declanșat incendiul Palisades, care a distrus mii de case și afaceri și a ucis 12 persoane în California în ianuarie anul acesta, după ce a cerut aplicației de inteligență artificială să genereze imagini cu un oraș în flăcări.

Este puțin probabil ca cele două cazuri să fie ultimele în care AI implică persoane în infracțiuni, șeful OpenAI, Sam Altman, spunând că nu există protecții legale pentru conversațiile utilizatorilor cu chatbot-ul. Potrivit lui Altman, acest lucru nu numai că evidențiază preocupările legate de confidențialitatea pentru tehnologia aflată la început de drum, dar și informațiile intime pe care oamenii sunt dispuși să le împărtășească cu aceasta.

„Oamenii vorbesc cu ChatGPT despre cele mai personale lucruri din viața lor”, a spus el într-un podcast la începutul acestui an. „Oamenii o folosesc, mai ales tinerii, ca pe un terapeut, un antrenor de viață, având aceste probleme de relație... Și acum, dacă vorbești cu un terapeut, un avocat sau un medic despre aceste probleme, există un privilegiu legal pentru asta.”

Versatilitatea modelelor de inteligență artificială, precum ChatGPT, înseamnă că oamenii le pot folosi pentru orice, de la editarea fotografiilor de familie private până la descifrarea documentelor complexe, cum ar fi ofertele de împrumut bancar sau contractele de închiriere - toate acestea conținând informații extrem de personale. Un studiu recent realizat de OpenAI a dezvăluit că utilizatorii ChatGPT apelează din ce în ce mai mult la acesta pentru sfaturi medicale, cumpărături și chiar jocuri de rol.

Alte aplicații AI se prezintă în mod explicit ca terapeuți virtuali sau parteneri romantici, cu puține dintre măsurile de siguranță utilizate de firmele mai consacrate, în timp ce serviciile ilicite de pe dark web permit oamenilor să trateze AI nu numai ca pe un confident, ci și ca pe un complice. Cantitatea de date împărtășite este uimitoare - atât pentru scopuri de aplicare a legii, cât și pentru infractorii care ar putea căuta să le exploateze.

Când Perplexity a lansat un browser web bazat pe inteligență artificială la începutul acestui an, cercetătorii în domeniul securității au descoperit că hackerii îl pot deturna pentru a obține acces la datele unui utilizator, care ar putea fi apoi folosite pentru a-l șantaja. Companiile care controlează această tehnologie caută, de asemenea, să profite de această nouă comoară de date profund intime.

Din decembrie, Meta va începe să folosească interacțiunile oamenilor cu instrumentele sale AI pentru a afișa reclame personalizate pe Facebook, Instagram și Threads. Conversațiile vocale și schimburile de mesaje text cu AI vor fi scanate pentru a afla mai multe despre preferințele personale ale unui utilizator și despre produsele pe care ar putea fi interesat să le cumpere. Și nu există nicio modalitate de a renunța la aceasta.

„De exemplu, dacă discuți cu Metal AI despre drumeții, s-ar putea să aflăm că ești interesat de drumeții”, a spus Meta într-o postare pe blog care anunța actualizarea. „Drept urmare, s-ar putea să începi să vezi recomandări pentru grupuri de drumeții, postări de la prieteni despre trasee sau reclame pentru ghete de drumeție.”

Acest lucru poate suna relativ benign, dar studiile de caz ale reclamelor personalizate difuzate prin motoarele de căutare și rețelele sociale arată cât de distructive pot fi acestea. Oamenilor care caută termeni precum „am nevoie de ajutor cu banii” li s-au difuzat reclame pentru împrumuturi prădătoare, cazinourile online au vizat jucătorii cu probleme cu rotiri gratuite, iar utilizatorii în vârstă au fost încurajați să își cheltuiască economiile de pensionare pe monede de aur supraevaluate.

Directorul executiv al Meta, Mark Zuckerberg, este pe deplin conștient de cantitatea de date private care va fi colectată în noua politică de publicitate AI. În aprilie, el a spus că utilizatorii vor putea lăsa Meta AI să „afle foarte multe despre tine și despre oamenii de care îți pasă, în toate aplicațiile noastre”. El este, de asemenea, aceeași persoană care a descris odată utilizatorii Facebook ca fiind „imbecili idioți” pentru că au avut încredere în el cu datele lor.

„Fie că vă place sau nu, Meta nu se referă cu adevărat la conectarea prietenilor din întreaga lume. Modelul său de afaceri se bazează aproape în întregime pe vânzarea de spații publicitare direcționate pe platformele sale”, a scris Pieter Arntz, de la firma de securitate cibernetică Malwarebytes, la scurt timp după anunțul Meta. „Industria se confruntă cu mari provocări etice și de confidențialitate. Brandurile și furnizorii de AI trebuie să echilibreze personalizarea cu transparența și controlul utilizatorului, mai ales că instrumentele AI colectează și analizează date comportamentale sensibile.”

Pe măsură ce utilitatea AI aprofundează compromisul dintre confidențialitatea personală și comoditate, relația noastră cu tehnologia este din nou sub control. Într-un mod similar cu modul în care scandalul Cambridge Analytica i-a forțat pe oameni să se confrunte cu modul în care foloseau site-urile de socializare precum Facebook, această nouă tendință de colectare a datelor, precum și cazuri precum cele ale lui Schaefer și Rinderknecht, ar putea readuce confidențialitatea în fruntea agendei tehnologice.

La mai puțin de trei ani de la lansarea ChatGPT, există acum peste un miliard de oameni care folosesc aplicații AI independente. Acești utilizatori sunt adesea subiecți fără să știe ai exploatării de către firmele de tehnologie prădătoare, agenții de publicitate și chiar anchetatorii penali. Există un proverb vechi conform căruia, dacă nu plătești pentru un serviciu, atunci nu tu ești clientul, ci produsul. În această nouă eră a inteligenței artificiale, acest dicton ar putea trebui rescris pentru a înlocui cuvântul produs cu pradă.