Când Anthropic, anul trecut, a devenit prima companie majoră de IA aprobată de guvernul SUA pentru utilizare clasificată – inclusiv aplicații militare – vestea nu a făcut mare vâlvă. Dar, săptămâna aceasta, o a doua evoluție a lovit ca un tun: Pentagonul își reconsideră relația cu compania, inclusiv un contract de 200 de milioane de dolari, aparent deoarece firma de IA preocupată de siguranță se opune participării la anumite operațiuni letale. Așa-numitul Departament de Război ar putea chiar desemna Anthropic drept un „risc al lanțului de aprovizionare”, o literă stacojie rezervată de obicei companiilor care fac afaceri cu țări analizate de agențiile federale, cum ar fi China, ceea ce înseamnă că Pentagonul nu ar face afaceri cu firme care utilizează IA Anthropic în activitatea lor de apărare.
Într-o declarație pentru WIRED, purtătorul de cuvânt principal al Pentagonului, Sean Parnell, a confirmat că Anthropic se află în dificultate. „Națiunea noastră cere ca partenerii noștri să fie dispuși să-și ajute luptătorii să câștige în orice luptă. În cele din urmă, este vorba despre trupele noastre și despre siguranța poporului american”, a spus el. Acesta este un mesaj și pentru alte companii: OpenAI, xAI și Google, care au în prezent contracte cu Departamentul Apărării pentru activități neclasificate, trec prin cercurile necesare pentru a obține propriile autorizații înalte.
Sunt multe de deslușit aici. În primul rând, se pune problema dacă Anthropic este pedepsită pentru că s-a plâns de faptul că modelul său de IA Claude a fost folosit ca parte a raidului pentru a-l înlătura pe președintele Venezuelei, Nicolás Maduro (asta se raportează; compania neagă). Există, de asemenea, faptul că Anthropic susține public reglementarea IA – o poziție atipică în industrie și una care contravine politicilor administrației.
Dar există o problemă mai mare, mai deranjantă în joc. Cerințele guvernamentale de utilizare militară vor face IA însăși mai puțin sigură? Cercetătorii și directorii cred că IA este cea mai puternică tehnologie inventată vreodată. Practic, toate companiile actuale de IA au fost fondate pe premisa că este posibil să se realizeze AGI, sau superinteligenta, într-un mod care să prevină daunele răspândite. Elon Musk, fondatorul xAI, a fost odată cel mai mare susținător al controlului IA – a cofondat OpenAI pentru că se temea că tehnologia este prea periculoasă pentru a fi lăsată în mâinile companiilor care caută profit.
Anthropic și-a creat un spațiu ca fiind cea mai conștiincioasă în ceea ce privește siguranța dintre toate. Misiunea companiei este de a avea bariere de protecție atât de profund integrate în modelele lor încât actorii răi să nu poată exploata potențialul cel mai întunecat al IA. Isaac Asimov a spus-o primul și cel mai bine în legile sale ale roboticii: Un robot nu poate răni o ființă umană sau, prin inacțiune, poate permite unei ființe umane să fie rănită. Chiar și atunci când IA devine mai inteligentă decât orice om de pe Pământ – o eventualitate în care liderii IA cred cu ardoare – acele bariere de protecție trebuie să reziste.
Așadar, pare contradictoriu faptul că laboratoarele de IA de top se luptă să-și introducă produsele în operațiuni militare și de informații de ultimă generație. Ca primul laborator major cu un contract clasificat, Anthropic oferă guvernului un „set personalizat de modele Claude Gov construite exclusiv pentru clienții de securitate națională din SUA”. Cu toate acestea, Anthropic a spus că a făcut-o fără a-și încălca propriile standarde de siguranță, inclusiv o interdicție privind utilizarea lui Claude pentru a produce sau proiecta arme. CEO-ul Anthropic, Dario Amodei, a spus în mod specific că nu dorește ca Claude să fie implicat în arme autonome sau supravegherea guvernamentală a IA. Dar s-ar putea să nu funcționeze cu administrația actuală.
Directorul de tehnologie al Departamentului Apărării, Emil Michael (fostul director de afaceri al Uber), a declarat săptămâna aceasta reporterilor că guvernul nu va tolera o companie de IA care să limiteze modul în care armata folosește IA în armele sale. „Dacă vine un roi de drone dintr-o bază militară, care sunt opțiunile tale pentru a-l doborî? Dacă timpul de reacție umană nu este suficient de rapid… cum o să faci?”, a întrebat el retoric. Atât despre prima lege a roboticii.
Există un argument bun că o securitate națională eficientă necesită cea mai bună tehnologie de la cele mai inovatoare companii. În timp ce chiar și acum câțiva ani, unele companii de tehnologie s-au ferit să lucreze cu Pentagonul, în 2026, ele sunt în general potențiali contractori militari cu steagul în mână. Încă nu am auzit niciun director de IA vorbind despre modelele lor asociate cu forța letală, dar CEO-ul Palantir, Alex Karp, nu se sfiește să spună, cu aparentă mândrie: „Produsul nostru este folosit ocazional pentru a ucide oameni.”
SUA ar putea fi capabilă să-și flexeze mușchii IA cu impunitate atunci când este în luptă cu o țară precum Venezuela. Dar adversarii sofisticați vor trebui să implementeze agresiv propriile versiuni de IA de securitate națională, rezultatul fiind o cursă a înarmărilor la scară largă. Guvernul probabil va avea puțină răbdare cu companiile de IA care insistă asupra excepțiilor sau distincțiilor juridice cu privire la ceea ce constituie „utilizare legală” atunci când o practică letală este sub semnul întrebării. (Mai ales un guvern care se simte liber să redefinească legea pentru a justifica ceea ce mulți consideră a fi crime de război.) Acea declarație a Pentagonului spune explicit: Dacă companiile de IA doresc să colaboreze cu Departamentul Apărării, trebuie să se angajeze să facă tot ce este necesar pentru a câștiga.
Această mentalitate poate avea sens în Pentagon, dar împinge efortul de a crea IA sigură în direcția greșită. Dacă creați o formă de IA care nu va răni oamenii, este contraproductiv să lucrați și la versiuni care oferă forță letală. Acum doar câțiva ani, atât guvernele, cât și directorii de tehnologie vorbeau serios despre organismele internaționale care ar putea ajuta la monitorizarea și limitarea utilizărilor dăunătoare ale IA. Nu mai auzi mult această discuție. Acum se dă de la sine că viitorul războiului este IA. Chiar și mai înfricoșător, viitorul IA în sine ar putea fi mai susceptibil la tipul de violență văzută în război – dacă companiile care o fac și națiunile care o exercită nu au grijă să conțină tehnologia.
Am crezut mult timp că povestea majoră a vremurilor noastre este ascensiunea tehnologiei digitale. Politicienii, regimurile și chiar țările pot veni și pleca – dar remodelarea umanității de către tehnologie este irevocabilă. Când Donald Trump a fost ales pentru prima dată președinte în 2016, am explicat această teorie într-o rubrică numită „iPhone-ul este mai mare decât Donald Trump”. La realegerea sa în 2024, am scris o continuare, argumentând că IA a fost un agent al haosului mai mare decât președintele. Pe termen lung, am argumentat, știința depășește chiar și Trump. Această teorie se simte acum puțin mai șubredă. Viitorul ar putea depinde de cine este responsabil de IA avansată și de modul în care o modelează și o exploatează.
În timp ce domnii IA se înfășoară în patriotism și caută oferte cu Pentagonul, faptul este că furnizează o tehnologie extrem de puternică și imprevizibilă unui guvern și unui departament de război care resping ideea supravegherii. Ce ar crede Asimov?
Aceasta este o ediție a buletinului informativ Backchannel al lui Steven Levy. Citiți buletinele informative anterioare aici.

