Cash News Logo

Capcana pe Care Anthropic și-a Creat-o Singură

Tech & AI1 martie 2026, 02:08
Capcana pe Care Anthropic și-a Creat-o Singură

Capcana pe care Anthropic și-a creat-o singură Connie Loizos 28 februarie 2026, 16:08 PST

Vineri după-amiază, chiar când începea acest interviu, o alertă de știri a apărut pe ecranul computerului meu: administrația Trump rupea legăturile cu Anthropic, compania AI din San Francisco fondată în 2021 de Dario Amodei. Secretarul Apărării Pete Hegseth a invocat o lege de securitate națională pentru a interzice companiei să facă afaceri cu Pentagonul, după ce Amodei a refuzat să permită utilizarea tehnologiei Anthropic pentru supravegherea în masă a cetățenilor americani sau pentru drone armate autonome care ar putea selecta și ucide ținte fără intervenție umană.

A fost o secvență uluitoare. Anthropic riscă să piardă un contract în valoare de până la 200 de milioane de dolari și i se va interzice să lucreze cu alți contractori din domeniul apărării, după ce președintele Trump a postat pe Truth Social ordonând fiecărei agenții federale să „înceteze imediat orice utilizare a tehnologiei Anthropic”. (Anthropic a declarat de atunci că va contesta Pentagonul în instanță.)

Max Tegmark și-a petrecut cea mai mare parte a unui deceniu avertizând că cursa pentru construirea unor sisteme AI din ce în ce mai puternice depășește capacitatea lumii de a le guverna. Fizicianul MIT a fondat Future of Life Institute în 2014 și a ajutat la organizarea unei scrisori deschise – semnată în cele din urmă de peste 33.000 de persoane, inclusiv Elon Musk – care solicita o pauză în dezvoltarea avansată a AI. Părerea sa despre criza Anthropic este neiertătoare: compania, ca și rivalii săi, a semănat semințele propriei sale situații dificile.

Argumentul lui Tegmark nu începe cu Pentagonul, ci cu o decizie luată cu ani mai devreme – o alegere, împărtășită în întreaga industrie, de a rezista reglementărilor obligatorii. Anthropic, OpenAI, Google DeepMind și alții au promis de mult timp să se guverneze în mod responsabil. Anthropic chiar a renunțat în această săptămână la principiul central al propriului său angajament de siguranță – promisiunea sa de a nu lansa sisteme AI din ce în ce mai puternice până când compania nu era sigură că nu vor provoca daune. Acum, în absența regulilor, nu există prea multe care să protejeze acești jucători, spune Tegmark.

Iată mai multe din acel interviu, editat pentru lungime și claritate. Puteți auzi conversația completă săptămâna aceasta în podcastul StrictlyVC Download de la TechCrunch.

Când ați văzut această știre despre Anthropic, care a fost prima dumneavoastră reacție?

Drumul spre iad este pavat cu bune intenții. Este atât de interesant să ne amintim de acum un deceniu, când oamenii erau atât de încântați de modul în care vom face inteligență artificială pentru a vindeca cancerul, pentru a crește prosperitatea în America și pentru a face America puternică. Și iată-ne acum, unde guvernul SUA este enervat pe această companie pentru că nu vrea ca AI să fie folosită pentru supravegherea internă în masă a americanilor și, de asemenea, pentru că nu vrea să aibă roboți ucigași care pot decide autonom – fără nicio intervenție umană – cine este ucis.

Anthropic și-a pus întreaga identitate pe a fi o companie AI care pune siguranța pe primul loc și totuși colabora cu agenții de apărare și de informații [încă din 2024]. Credeți că este deloc contradictoriu?

Este contradictoriu. Dacă pot da o mică părere cinică despre acest lucru – da, Anthropic a fost foarte bună în a se prezenta ca fiind totul despre siguranță. Dar dacă vă uitați de fapt la fapte, mai degrabă decât la afirmații, ceea ce vedeți este că Anthropic, OpenAI, Google DeepMind și xAI au vorbit toate foarte mult despre cât de mult le pasă de siguranță. Niciuna dintre ele nu a ieșit în sprijinul unei reglementări obligatorii a siguranței, așa cum am făcut-o în alte industrii. Și toate cele patru companii și-au încălcat acum propriile promisiuni. Mai întâi am avut Google – acest slogan mare, „Nu fi rău”. Apoi au renunțat la el. Apoi au renunțat la un alt angajament mai lung care practic spunea că au promis să nu facă rău cu AI. Au renunțat la el pentru a putea vinde AI pentru supraveghere și arme. OpenAI tocmai a renunțat la cuvântul siguranță din declarația lor de misiune. xAI și-a închis întreaga echipă de siguranță. Iar acum, Anthropic, la începutul săptămânii, a renunțat la cel mai important angajament de siguranță – promisiunea de a nu lansa sisteme AI puternice până când nu erau siguri că nu vor provoca daune.

Cum au ajuns companiile care și-au luat angajamente de siguranță atât de proeminente în această poziție?

Toate aceste companii, în special OpenAI și Google DeepMind, dar într-o oarecare măsură și Anthropic, au făcut lobby persistent împotriva reglementării AI, spunând: „Aveți încredere în noi, ne vom reglementa singuri”. Și au făcut lobby cu succes. Așa că avem acum mai puține reglementări asupra sistemelor AI în America decât asupra sandvișurilor. Știți, dacă doriți să deschideți un magazin de sandvișuri și inspectorul sanitar găsește 15 șobolani în bucătărie, nu vă va lăsa să vindeți sandvișuri până când nu remediați problema. Dar dacă spuneți: „Nu vă faceți griji, nu voi vinde sandvișuri, voi vinde prietene AI pentru copii de 11 ani și au fost legate de sinucideri în trecut, iar apoi voi lansa ceva numit superinteligență care ar putea răsturna guvernul SUA, dar am un sentiment bun despre al meu” – inspectorul trebuie să spună: „Bine, mergeți mai departe, doar nu vindeți sandvișuri”. Există reglementări privind siguranța alimentară și nu există reglementări privind AI. Și acest lucru, simt eu, toate aceste companii împărtășesc cu adevărat vina. Pentru că, dacă ar fi luat toate aceste promisiuni pe care le-au făcut în trecut despre cât de sigure și bune vor fi și s-ar fi adunat și apoi ar fi mers la guvern și ar fi spus: „Vă rugăm să luați angajamentele noastre voluntare și să le transformați în legea SUA care obligă chiar și pe cei mai neglijenți concurenți ai noștri” – acest lucru s-ar fi întâmplat în schimb.

Suntem într-un vid de reglementare complet. Și știm ce se întâmplă când există o amnistie corporativă completă: obțineți talidomidă, obțineți companii de tutun care vând țigări copiilor, obțineți azbest care cauzează cancer pulmonar. Deci este oarecum ironic faptul că propria lor rezistență la a avea legi care să spună ce este ok și ce nu este ok să faci cu AI se întoarce acum și le mușcă. Nu există nicio lege în acest moment împotriva construirii AI pentru a ucide americani, așa că guvernul poate pur și simplu să o ceară brusc. Dacă companiile însele ar fi ieșit mai devreme și ar fi spus: „Vrem această lege”, nu ar fi fost în această dificultate. S-au împușcat cu adevărat în picior.

Contraargumentul companiilor este întotdeauna cursa cu China – dacă companiile americane nu fac acest lucru, Beijingul o va face. Are sens acest argument?

Să analizăm asta. Cel mai comun argument al lobbyiștilor pentru companiile AI – acum sunt mai bine finanțați și mai numeroși decât lobbyiștii din industria combustibililor fosili, industria farmaceutică și complexul militar-industrial combinate – este că, ori de câte ori cineva propune orice fel de reglementare, ei spun: „Dar China”. Deci, să ne uităm la asta. China este în proces de a interzice prietenele AI cu totul. Nu doar limite de vârstă – se uită la interzicerea tuturor AI antropomorfe. De ce? Nu pentru că vor să mulțumească America, ci pentru că simt că acest lucru distruge tineretul chinez și slăbește China. Evident, slăbește și tineretul american.

Și când oamenii spun că trebuie să ne întrecem pentru a construi superinteligență, astfel încât să putem câștiga împotriva Chinei – când de fapt nu știm cum să controlăm superinteligența, astfel încât rezultatul implicit este că umanitatea pierde controlul asupra Pământului în fața mașinilor extraterestre – ghiciți ce? Partidul Comunist Chinez apreciază cu adevărat controlul. Cine, în mintea lui, crede că Xi Jinping va tolera ca o companie chineză AI să construiască ceva care răstoarnă guvernul chinez? Niciun caz. Este clar foarte rău și pentru guvernul american dacă este răsturnat într-o lovitură de stat de prima companie americană care construiește superinteligență. Aceasta este o amenințare la adresa securității naționale.

Aceasta este o încadrare convingătoare – superinteligența ca o amenințare la adresa securității naționale, nu un atu. Vedeți că această viziune câștigă tracțiune la Washington?

Cred că, dacă oamenii din comunitatea de securitate națională îl ascultă pe Dario Amodei descriind viziunea sa – el a ținut un discurs celebru în care spune că vom avea în curând o țară de genii într-un centru de date – ar putea începe să se gândească: așteaptă, Dario tocmai a folosit cuvântul „țară”? Poate ar trebui să pun acea țară de genii într-un centru de date pe aceeași listă de amenințări pe care o urmăresc, pentru că sună amenințător pentru guvernul SUA. Și cred că destul de curând, suficient de mulți oameni din comunitatea de securitate națională a SUA vor realiza că superinteligența incontrolabilă este o amenințare, nu un instrument. Aceasta este complet analogă cu Războiul Rece. A existat o cursă pentru dominație – economică și militară – împotriva Uniunii Sovietice. Noi, americanii, am câștigat-o pe aceasta fără a ne angaja vreodată în a doua cursă, care era să vedem cine ar putea pune cele mai multe cratere nucleare în cealaltă superputere. Oamenii au realizat că asta era doar sinucidere. Nimeni nu câștigă. Aceeași logică se aplică și aici.

Ce înseamnă toate acestea pentru ritmul de dezvoltare a AI în general? Cât de aproape credeți că suntem de sistemele pe care le descrieți?

Acum șase ani, aproape toți experții în AI pe care îi cunoșteam au prezis că suntem la decenii distanță de a avea AI care ar putea stăpâni limbajul și cunoștințele la nivel uman – poate 2040, poate 2050. S-au înșelat cu toții, pentru că avem deja asta acum. Am văzut AI progresând destul de rapid de la nivel de liceu la nivel de facultate la nivel de doctorat la nivel de profesor universitar în unele domenii. Anul trecut, AI a câștigat medalia de aur la Olimpiada Internațională de Matematică, care este cam la fel de dificilă ca sarcinile umane. Am scris o lucrare împreună cu Yoshua Bengio, Dan Hendrycks și alți cercetători de top în AI în urmă cu doar câteva luni, oferind o definiție riguroasă a AGI. Potrivit acesteia, GPT-4 era 27% din drum. GPT-5 era 57% din drum. Deci nu suntem încă acolo, dar trecerea de la 27% la 57% atât de repede sugerează că s-ar putea să nu mai dureze atât de mult. Când am predat studenților mei ieri la MIT, le-am spus că, chiar dacă durează patru ani, asta înseamnă că atunci când vor absolvi, s-ar putea să nu mai poată obține nicio slujbă. Cu siguranță nu este prea devreme pentru a începe să ne pregătim pentru asta.

Anthropic este acum pe lista neagră. Sunt curios să văd ce se întâmplă în continuare – vor sta ceilalți giganți AI alături de ei și vor spune, nici noi nu vom face asta? Sau cineva ca xAI ridică mâna și spune, Anthropic nu a vrut acel contract, îl vom lua noi? [Notă a editorului: La câteva ore după interviu, OpenAI a anunțat propriul acord cu Pentagonul.]

Ieri seară, Sam Altman a ieșit și a spus că este alături de Anthropic și are aceleași linii roșii. Îl admir pentru curajul de a spune asta. Google, de când am început acest interviu, nu a spus nimic. Dacă tac, cred că este incredibil de jenant pentru ei ca companie și mulți dintre angajații lor vor simți același lucru. Nu am auzit nimic nici de la xAI. Deci va fi interesant de văzut. Practic, există acest moment în care toată lumea trebuie să-și arate adevăratele culori.

Există o versiune a acestui lucru în care rezultatul este de fapt bun?

Da, și de aceea sunt de fapt optimist într-un mod ciudat. Există o alternativă atât de evidentă aici. Dacă am începe să tratăm companiile AI ca pe oricare alte companii – renunțăm la amnistia corporativă – ar trebui în mod clar să facă ceva de genul unui studiu clinic înainte de a lansa ceva atât de puternic și să demonstreze experților independenți că știu cum să-l controleze. Apoi obținem o epocă de aur cu toate lucrurile bune de la AI, fără anxietatea existențială. Nu suntem pe această cale chiar acum. Dar ar putea fi.