Cash News Logo

Când Companiile de Inteligență Artificială Intră în Război, Siguranța Este Lăsată În Urmă

Tech & AI6 martie 2026, 20:19
Când Companiile de Inteligență Artificială Intră în Război, Siguranța Este Lăsată În Urmă

Când Companiile de Inteligență Artificială Intră în Război, Siguranța Este Lăsată În Urmă

Am petrecut ultimele zile rugând companiile de IA să mă convingă că perspectivele pentru siguranța IA nu s-au diminuat. Acum câțiva ani, părea că exista un acord universal între companii, legislatori și publicul larg că reglementarea și supravegherea serioasă a IA nu erau doar necesare, ci și inevitabile. Oamenii speculau despre organisme internaționale care stabilesc reguli pentru a se asigura că IA va fi tratată mai serios decât alte tehnologii emergente și că ar putea oferi cel puțin obstacole în calea implementărilor sale cele mai periculoase. Corporațiile au promis să acorde prioritate siguranței în detrimentul concurenței și profiturilor. În timp ce apocalipticii încă roteau scenarii distopice, se forma un consens global pentru a limita riscurile IA, profitând în același timp de beneficiile sale.

Evenimentele din ultima săptămână au dat o lovitură grea acestor speranțe, începând cu disputa amară dintre Pentagon și Anthropic. Toate părțile sunt de acord că contractul existent între cei doi specifica – la insistențele Anthropic – că Departamentul Apărării (care acum se referă sugestiv la sine ca Departamentul de Război) nu va folosi modelele Claude AI ale Anthropic pentru arme autonome sau supravegherea în masă a americanilor. Acum, Pentagonul vrea să șteargă aceste linii roșii, iar refuzul Anthropic nu numai că a dus la încheierea contractului său, dar l-a determinat și pe secretarul Apărării, Pete Hegseth, să declare compania un risc în lanțul de aprovizionare, o desemnare care împiedică agențiile guvernamentale să facă afaceri cu Anthropic.

Fără a intra în detalii despre prevederile contractuale și dinamica personală dintre Hegseth și CEO-ul Anthropic, Dario Amodei, concluzia pare a fi că armata este hotărâtă să reziste oricăror limitări asupra modului în care folosește IA, cel puțin în limitele legalității – prin propria definiție. Întrebarea mai importantă pare a fi cum am ajuns în punctul în care lansarea de drone ucigașe și bombe care identifică și elimină ținte umane a ajuns în discuție ca ceva ce armata americană ar lua chiar și în considerare. Am ratat dezbaterea internațională despre meritele creării de roiuri de drone autonome letale care scanează zone de război, patrulează granițele sau sunt atente la contrabandiștii de droguri? Hegseth și susținătorii săi se plâng de absurditatea companiilor private care limitează ceea ce poate face armata. Cred că este mai nebunesc că este nevoie de o singură companie care riscă sancțiuni existențiale pentru a opri o tehnologie potențial incontrolabilă. În orice caz, lipsa acordurilor internaționale înseamnă că fiecare miliție avansată trebuie să folosească IA în toate formele sale, pur și simplu pentru a ține pasul cu adversarii săi. În acest moment, o cursă a înarmărilor IA pare inevitabilă.

Riscurile se extind cu mult dincolo de armată. Umbrită de drama Pentagonului a fost un anunț tulburător pe care Anthropic l-a postat pe 24 februarie. Compania a spus că face modificări sistemului său de atenuare a riscurilor catastrofale de la IA, numit Politica de Scalare Responsabilă. A fost o politică cheie de fondare pentru Anthropic, în care compania a promis să-și lege programul de lansare a modelului IA de procedurile sale de siguranță. Politica a declarat că modelele nu ar trebui lansate fără bariere de protecție care să prevină utilizările în cel mai rău caz. A acționat ca un stimulent intern pentru a se asigura că siguranța nu este neglijată în graba de a lansa tehnologii avansate. Chiar mai important, Anthropic a sperat că adoptarea politicii va inspira sau rușina alte companii să facă același lucru. A numit acest proces „cursa spre vârf”. Așteptarea era că întruchiparea unor astfel de principii va ajuta la influențarea reglementărilor la nivelul întregii industrii care stabilesc limite asupra haosului pe care IA l-ar putea provoca.

La început, această abordare părea promițătoare. DeepMind și OpenAI au adoptat aspecte ale cadrului Anthropic. Mai recent, pe măsură ce dolarii de investiții au crescut vertiginos, concurența dintre laboratoarele de IA a crescut, iar perspectiva reglementării federale a început să pară mai îndepărtată, Anthropic a recunoscut că Politica sa de Scalare Responsabilă nu a fost la înălțimea așteptărilor. Pragurile nu au creat consensul cu privire la riscurile IA la care spera. După cum a menționat compania într-o postare pe blog, „Mediul politic s-a schimbat spre prioritizarea competitivității IA și a creșterii economice, în timp ce discuțiile orientate spre siguranță nu au câștigat încă o tracțiune semnificativă la nivel federal.” Între timp, concurența dintre companiile de IA a devenit mai acerbă. În loc de o cursă spre vârf, rivalitatea IA pare mai mult ca o versiune cu pumnii goi a Regelui Muntelui. Când Pentagonul a alungat Anthropic, OpenAI s-a grăbit să umple golul cu propriul său contract cu Departamentul Apărării.

CEO-ul OpenAI, Sam Altman, a insistat că a încheiat înțelegerea sa pripită cu Pentagonul pentru a reduce presiunea asupra Anthropic, dar Amodei nu a vrut să audă de asta. „Sam încearcă să ne submineze poziția, părând în același timp că o susține”, a spus Amodei într-un memoriu intern. „El încearcă să facă mai posibil ca administrația să ne pedepsească, subminând sprijinul nostru public.” (Amodei și-a cerut ulterior scuze pentru tonul său din mesaj.)

Toate acestea par să indice un viitor sumbru, în care IA neîngrădită și periculoasă proliferează. Dar companiile nu sunt de acord. Când mi-am prezentat argumentul sumbru, ei au insistat că siguranța este la fel de importantă ca întotdeauna, în ciuda afecțiunii Pentagonului pentru drone ucigașe nesigure. „Nu cred că cursa spre vârf a murit”, spune directorul științific al Anthropic, Jared Kaplan, îndemnându-mă să-mi mut privirea de pe câmpul de luptă și de pe piață în laboratoarele de cercetare. „Există mulți cercetători în fiecare laborator cărora le pasă foarte mult să facă ceea ce trebuie. Ei vor să vadă cercetările lor folosite pentru îmbunătățirea omenirii și cred că există concurență nu doar pentru a le face mai utile sau mai capabile, ci și mai sigure”, îmi spune el.

OpenAI a încercat, de asemenea, să mă convingă, subliniind că, de când a lansat ChatGPT, au apărut o mulțime de organizații de siguranță IA. Și, deși SUA nu a adoptat nicio reglementare federală, Uniunea Europeană ia unele măsuri pentru a controla IA. OpenAI, îmi spune compania, are mai mulți oameni care lucrează la siguranță ca niciodată. (Cu toate acestea, nu ar spune dacă procentul din forța sa de muncă acum mult mai mare care lucrează la această problemă a crescut de fapt.)

Directorul de strategie al OpenAI, Jason Kwon, susține, de asemenea, că observația mea că siguranța IA nu este la fel de proeminentă ca acum câțiva ani ar putea fi iluzorie. „Motivul pentru care siguranța poate părea mai puțin importantă este că au apărut alte probleme”, spune el. „Nu poți reține decât atât de multe în cap în orice moment. Întrebarea siguranței a fost o întrebare dominantă în 2023 și este încă o întrebare importantă. Dar oamenii se gândesc acum și la impactul asupra muncii, cum să folosească IA pentru creșterea economică și cum să distribuie IA la nivel internațional, astfel încât toată lumea să aibă acces.” În ceea ce privește contractul său cu Pentagonul, OpenAI spune că, deși nu poate controla modul în care Departamentul Apărării își folosește modelele, compania a încorporat garanții care limitează utilizarea acestuia pentru armament autonom și alte aplicații nefaste. Dar, dacă Hegseth credea că eliminarea acestor garanții înseamnă viață sau moarte pentru soldații săi, ce l-ar opri să facă un pas cu care a amenințat Anthropic – invocarea Legii Producției de Apărare pentru a prelua compania și a elimina garanțiile?

După ce am vorbit despre temerile mele cu companiile, am fost cel puțin asigurat că siguranța încă contează pentru ele. Dar sunt încă sceptic că vor permite ca preocupările legate de siguranță să le încetinească. La începutul acestui an, Amodei de la Anthropic a descris explicit această dilemă într-un eseu pe care l-a publicat. „Aceasta este capcana”, a scris el. „IA este atât de puternică, un premiu atât de strălucitor, încât este foarte dificil pentru civilizația umană să impună vreo reținere asupra ei.”