Decizii contradictorii lasă Anthropic într-un limbo de „risc în lanțul de aprovizionare”
O decizie a unei curți de apel din SUA este în contradicție cu o decizie separată, a unei instanțe inferioare din martie, lăsând incertitudine cu privire la dacă și cum armata americană poate folosi modelul Claude al companiei AI.
Anthropic „nu a îndeplinit cerințele stricte” pentru a pierde temporar desemnarea de risc în lanțul de aprovizionare impusă de Pentagon, a decis miercuri o curte de apel din SUA din Washington, DC. Decizia este în contradicție cu una emisă luna trecută de un judecător al unei instanțe inferioare din San Francisco și nu a fost imediat clar cum vor fi rezolvate judecățile preliminare contradictorii.
Guvernul a sancționat Anthropic în temeiul a două legi diferite privind lanțul de aprovizionare cu efecte similare, iar instanțele din San Francisco și Washington, DC, se pronunță fiecare doar asupra uneia dintre ele. Anthropic a declarat că este prima companie americană care este desemnată în temeiul celor două legi, care sunt de obicei folosite pentru a pedepsi afacerile străine care prezintă un risc pentru securitatea națională.
„Acordarea unei suspendări ar forța armata Statelor Unite să-și prelungească relațiile cu un furnizor nedorit de servicii critice de inteligență artificială în mijlocul unui conflict militar semnificativ în curs”, a scris miercuri completul de apel format din trei judecători într-un caz pe care l-au descris drept fără precedent. Comitetul a spus că, deși Anthropic ar putea suferi prejudicii financiare din desemnarea continuă, nu au vrut să riște „o impunere judiciară substanțială asupra operațiunilor militare” sau să „înlocuiască cu ușurință” judecățile armatei cu privire la securitatea națională.
Judecătorul din San Francisco a constatat că Departamentul Apărării a acționat probabil cu rea-credință împotriva lui Anthropic, determinat de frustrarea față de limitele propuse de compania AI asupra modului în care tehnologia sa ar putea fi utilizată și de criticile sale publice la adresa acestor restricții. Judecătorul a ordonat ca eticheta de risc în lanțul de aprovizionare să fie eliminată săptămâna trecută, iar administrația Trump s-a conformat prin restabilirea accesului la instrumentele AI Anthropic în interiorul Pentagonului și în restul guvernului federal.
Purtătoarea de cuvânt a lui Anthropic, Danielle Cohen, spune că compania este recunoscătoare că instanța din Washington, DC, „a recunoscut că aceste probleme trebuie rezolvate rapid” și rămâne încrezătoare că „instanțele vor fi în cele din urmă de acord că aceste desemnări ale lanțului de aprovizionare au fost ilegale”.
Departamentul Apărării nu a răspuns imediat unei solicitări de comentarii, dar procurorul general interimar Todd Blanche a postat o declarație pe X. „Suspendarea de astăzi a DC Circuit, care permite guvernului să desemneze Anthropic drept risc în lanțul de aprovizionare, este o victorie răsunătoare pentru pregătirea militară”, a scris el. „Poziția noastră a fost clară de la început - armata noastră are nevoie de acces deplin la modelele Anthropic dacă tehnologia sa este integrată în sistemele noastre sensibile.
Autoritatea militară și controlul operațional aparțin comandantului suprem și Departamentului de Război, nu unei companii de tehnologie.”
Cazurile testează cât de multă putere are ramura executivă asupra conduitei companiilor de tehnologie. Bătălia dintre Anthropic și administrația Trump se desfășoară, de asemenea, în timp ce Pentagonul implementează AI în războiul său împotriva Iranului. Compania a susținut că este pedepsită ilegal pentru că insistă că instrumentul său AI Claude nu are acuratețea necesară pentru anumite operațiuni sensibile, cum ar fi efectuarea de atacuri mortale cu drone fără supraveghere umană.
Mai mulți experți în contracte guvernamentale și drepturi corporative au declarat pentru WIRED că Anthropic are un caz puternic împotriva guvernului, dar instanțele refuză uneori să anuleze Casa Albă în chestiuni legate de securitatea națională. Unii cercetători în domeniul AI au spus că acțiunile Pentagonului împotriva lui Anthropic „îngheață dezbaterea profesională” despre performanța sistemelor AI.
Anthropic a susținut în instanță că a pierdut afaceri din cauza desemnării, pe care avocații guvernamentali susțin că interzice Pentagonului și contractanților săi să folosească Claude AI al companiei ca parte a proiectelor militare. Și atâta timp cât Trump rămâne la putere, Anthropic ar putea să nu poată recâștiga poziția semnificativă pe care o deținea în guvernul federal. Deciziile finale în cele două procese ale companiei ar putea fi la luni distanță. Curtea din Washington urmează să audieze argumentele orale pe 19 mai.
Părțile au dezvăluit până acum detalii minime despre modul exact în care Departamentul Apărării a folosit Claude sau despre cât de multe progrese a făcut în tranziția personalului la alte instrumente AI de la Google DeepMind, OpenAI sau alții. Armata, care sub președintele Trump se numește Departamentul de Război, a spus că a luat măsuri pentru a se asigura că Anthropic nu poate încerca în mod intenționat să-și saboteze instrumentele AI în timpul tranziției.
Actualizare 4/8/26 7:27 EDT: Această poveste a fost actualizată pentru a include un formular de declarație a procurorului general interimar Todd Blanche.

