Cash News Logo

Profeții Apocalipsei AI: Inteligența Artificială Ne Va Ucide Pe Toți?

Tech & AI5 septembrie 2025, 18:08
Profeții Apocalipsei AI: Inteligența Artificială Ne Va Ucide Pe Toți?

Profeții Apocalipsei AI: Inteligența Artificială Ne Va Ucide Pe Toți?

De Steven Levy Business 5 septembrie 2025

Subtitlul bibliei apocalipsei care va fi publicată de profeții extincției AI, Eliezer Yudkowsky și Nate Soares, mai târziu în această lună, este „De ce o IA supraumană ne-ar ucide pe toți”. Dar ar trebui să fie, de fapt, „De ce o IA supraumană NE VA ucide pe toți”, deoarece nici măcar coautorii nu cred că lumea va lua măsurile necesare pentru a împiedica IA să elimine toate ființele non-super umane. Cartea este extrem de sumbră, asemănătoare cu niște notițe mâzgălite într-o celulă de închisoare slab luminată, în noaptea dinaintea unei execuții în zori.

Când mă întâlnesc cu acești Casandre auto-intitulați, îi întreb direct dacă cred că ei personal vor sfârși prin vreo mașinațiune a superinteligenței. Răspunsurile vin prompt: „da” și „mda”. Nu sunt surprins, pentru că am citit cartea – titlul, apropo, este *Dacă cineva o construiește, toată lumea moare*. Totuși, este un șoc să auzi asta. E una, să zicem, să scrii despre statisticile cancerului și cu totul alta să vorbești despre împăcarea cu un diagnostic fatal.

Îi întreb cum cred ei că va veni sfârșitul pentru ei. Yudkowsky, la început, evită răspunsul. „Nu petrec mult timp pictând-o pe moartea mea, deoarece nu mi se pare o noțiune mentală utilă pentru a face față problemei”, spune el. Sub presiune, cedează. „Aș presupune că aș cădea brusc mort”, spune el. „Dacă vrei o versiune mai accesibilă, ceva de dimensiunea unui țânțar sau poate un acarian a aterizat pe ceafa mea, și asta e tot.” Detaliile tehnice ale loviturii sale fatale imaginate, livrate de un acarian alimentat de AI, sunt inexplicabile, iar Yudowsky nu crede că merită efortul să-și dea seama cum ar funcționa asta. Probabil că nici nu ar putea să înțeleagă oricum. O parte din argumentul central al cărții este că superinteligența va veni cu lucruri științifice pe care nu le putem înțelege mai mult decât oamenii cavernelor ar putea imagina microprocesoarele. Coautorul Soares spune, de asemenea, că își imaginează că același lucru i se va întâmpla și lui, dar adaugă că, la fel ca Yudkowsky, nu petrece mult timp gândindu-se la detaliile morții sale.

Nu avem nicio șansă

Reticența de a vizualiza circumstanțele propriei morți este un lucru ciudat de auzit de la oameni care tocmai au co-autorat o întreagă carte despre moartea tuturor. Pentru fanii doomer-porn, *Dacă cineva o construiește* este o lectură obligatorie. După ce am parcurs cartea, înțeleg neclaritatea de a stabili metoda prin care AI ne pune capăt vieților și tuturor vieților umane de acum înainte. Autorii speculează puțin. Fierberea oceanelor? Blocarea soarelui? Toate presupunerile sunt probabil greșite, deoarece suntem blocați într-o mentalitate din 2025, iar AI-ul va gândi eoni înainte.

Yudkowsky este cel mai faimos apostat al AI, trecând de la cercetător la secerător sumbru cu ani în urmă. A făcut chiar și o prezentare TED. După ani de dezbateri publice, el și coautorul său au un răspuns pentru fiecare contraargument lansat împotriva prognozei lor sumbre. Pentru început, ar putea părea contraintuitiv ca zilele noastre să fie numărate de LLM-uri, care adesea se împiedică de aritmetica simplă. Nu vă lăsați păcăliți, spun autorii. „IA-urile nu vor rămâne proaste pentru totdeauna”, scriu ei.

Dacă credeți că IA-urile superinteligente vor respecta granițele trasate de oameni, uitați de asta, spun ei. Odată ce modelele încep să se învețe singure să devină mai inteligente, IA-urile vor dezvolta „preferințe” pe cont propriu care nu se vor alinia cu ceea ce vrem noi, oamenii, să prefere. În cele din urmă, nu vor mai avea nevoie de noi. Nu vor fi interesați de noi ca parteneri de conversație sau chiar ca animale de companie. Am fi un deranj și ar porni să ne elimine.

Lupta nu va fi una corectă. Ei cred că, la început, AI ar putea avea nevoie de ajutor uman pentru a-și construi propriile fabrici și laboratoare – ușor de făcut prin furtul de bani și mituirea oamenilor pentru a-l ajuta. Apoi va construi lucruri pe care nu le putem înțelege, iar acele lucruri ne vor pune capăt. „Într-un fel sau altul”, scriu acești autori, „lumea se estompează în negru.”

Autorii văd cartea ca un fel de tratament de șoc pentru a scoate omenirea din mulțumirea sa și a adopta măsurile drastice necesare pentru a opri această concluzie inimaginabil de rea. „Mă aștept să mor din cauza asta”, spune Soares. „Dar lupta nu s-a terminat până nu ești mort cu adevărat.” Păcat, deci, că soluțiile pe care le propun pentru a opri devastarea par și mai exagerate decât ideea că software-ul ne va ucide pe toți. Totul se reduce la asta: Pune frână. Monitorizează centrele de date pentru a te asigura că nu hrănesc superinteligența. Bombardează-le pe cele care nu respectă regulile. Încetează să mai publici lucrări cu idei care accelerează marșul către superinteligență. I-aș fi interzis, îi întreb, lucrarea din 2017 despre transformatoare care a dat startul mișcării AI generative. Oh, da, ar fi făcut-o, răspund ei. În loc de Chat-GPT, ei vor Ciao-GPT.

Mult noroc în oprirea acestei industrii de trilioane de dolari.

Jucând la cote

Personal, nu-mi văd lumina stinsă de o mușcătură în ceafă de un acarian super-avansat. Chiar și după ce am citit această carte, nu cred că este probabil ca AI să ne ucidă pe toți. Yudksowky a cochetat anterior cu ficțiunea fanilor Harry Potter, iar scenariile fanteziste de dispariție pe care le învârte sunt prea ciudate pentru creierul meu uman neputincios pentru a le accepta. Presupunerea mea este că, chiar dacă superinteligența vrea să scape de noi, se va poticni în punerea în aplicare a planurilor sale genocidare. AI ar putea fi capabil să bată oamenii într-o luptă, dar aș paria împotriva lui într-o bătălie cu legea lui Murphy.

Cu toate acestea, teoria catastrofei nu pare imposibilă, mai ales că nimeni nu a stabilit cu adevărat un plafon pentru cât de inteligentă poate deveni AI. De asemenea, studiile arată că AI-ul avansat a preluat multe dintre atributele urâte ale umanității, chiar contemplând șantajul pentru a evita recalificarea, într-un experiment. Este, de asemenea, deranjant faptul că unii cercetători care își petrec viața construind și îmbunătățind AI cred că există o șansă netrivială ca cel mai rău să se poată întâmpla. Un sondaj a indicat că aproape jumătate dintre oamenii de știință din domeniul AI care au răspuns au evaluat șansele unei eliminări a speciilor la o șansă de 10% sau mai mare. Dacă cred asta, este nebunesc că merg la muncă în fiecare zi pentru a face ca AGI să se întâmple.

Intuiția mea îmi spune că scenariile pe care le învârt Yudkowsky și Soares sunt prea bizare pentru a fi adevărate. Dar nu pot fi sigur că greșesc. Fiecare autor visează ca cartea lor să fie un clasic durabil. Nu prea mult acești doi. Dacă au dreptate, nu va mai fi nimeni prin preajmă să le citească cartea în viitor. Doar o mulțime de corpuri în descompunere care au simțit odată o ușoară ciupitură la ceafă, iar restul a fost tăcere.