Cash News Logo

Anthropic dă în judecată Departamentul Apărării din SUA privind riscul lanțului de aprovizionare

Tech & AI9 martie 2026, 17:29
Anthropic dă în judecată Departamentul Apărării din SUA privind riscul lanțului de aprovizionare

Anthropic a depus luni un proces federal împotriva Departamentului Apărării din SUA și a altor agenții federale, contestând desemnarea companiei de inteligență artificială ca „risc al lanțului de aprovizionare”.

Pentagonul a sancționat oficial Anthropic săptămâna trecută, culminând cu un dezacord public de mai multe săptămâni privind limitele de utilizare a tehnologiei sale generative de inteligență artificială pentru aplicații militare, cum ar fi armele autonome.

„Nu credem că această acțiune este solidă din punct de vedere juridic și nu vedem altă opțiune decât să o contestăm în instanță”, a scris CEO-ul Anthropic, Dario Amodei, într-o postare pe blog joi. Procesul, care a fost depus la un tribunal federal din California, a solicitat unui judecător să anuleze desemnarea și să oprească agențiile federale să o aplice.

"Constituția nu permite guvernului să-și exercite puterea enormă pentru a pedepsi o companie pentru discursul său protejat", a declarat Anthropic în dosar. „Anthropic apelează la sistemul judiciar ca ultimă soluție pentru a-și apăra drepturile și a opri campania ilegală de represalii a Executivului.”

Startup-ul AI, care dezvoltă o suită de modele AI numită Claude, se confruntă cu posibilitatea de a pierde sute de milioane de dolari în venituri anuale de la Pentagon și de la restul guvernului SUA. De asemenea, ar putea pierde afacerile companiilor de software care încorporează Claude în serviciile pe care le vând agențiilor federale. Mai mulți clienți Anthropic au raportat că urmăresc alternative din cauza desemnării de risc a Departamentului Apărării.

Amodei a scris că „marea majoritate” a clienților Anthropic nu vor trebui să facă modificări. Desemnarea guvernului SUA „se aplică în mod clar numai utilizării lui Claude de către clienți ca parte directă a contractelor cu” armata, a spus el. Utilizarea generală a tehnologiilor Anthropic de către contractori militari ar trebui să fie neafectată.

Departamentul Apărării, cunoscut și sub numele de Departamentul de Război, și Casa Albă nu au răspuns imediat solicitărilor de comentarii cu privire la procesul Anthropic.

Avocații cu expertiză în contractele guvernamentale spun că Anthropic se confruntă cu o bătălie dificilă în instanță. Regulile care autorizează Departamentul Apărării să eticheteze o companie de tehnologie drept risc al lanțului de aprovizionare nu permit prea mult în ceea ce privește o cale de atac. „Este 100% prerogativa guvernului de a stabili parametrii unui contract”, spune Brett Johnson, partener la firma de avocatură Snell & Wilmer. Pentagonul, spune el, are, de asemenea, dreptul de a exprima că un produs care prezintă îngrijorare, dacă este utilizat de oricare dintre furnizorii săi, „afectează capacitatea guvernului de a-și îndeplini misiunea”.

Cea mai bună șansă de succes a lui Anthropic în instanță ar putea fi să demonstreze că a fost vizată, spune Johnson. La scurt timp după ce secretarul Apărării, Pete Hegseth, a anunțat că desemnează Anthropic drept risc al lanțului de aprovizionare, rivalul OpenAI a anunțat că a încheiat un nou contract cu Pentagonul. Acest lucru ar putea fi esențial pentru argumentul juridic al lui Anthropic, dacă compania poate demonstra că a căutat termeni similari cu dezvoltatorul ChatGPT. OpenAI a spus că acordul său include mijloace contractuale și tehnice de a asigura că tehnologia sa nu va fi utilizată pentru supraveghere internă în masă sau pentru a direcționa sisteme de arme autonome. A adăugat că se opune acțiunii împotriva Anthropic și nu știe de ce rivalul său nu a putut ajunge la același acord cu guvernul.

Prioritate militară

Hegseth a acordat prioritate adoptării militare a tehnologiilor AI, cu postere văzute recent în Pentagon care îl arată indicând și care scria: „Vreau să folosiți AI”.

Disputa cu Anthropic a început în ianuarie, după ce Hegseth a ordonat mai multor furnizori de AI să fie de acord că departamentul este liber să folosească tehnologiile lor în orice scop legal. Anthropic, care este singura companie care furnizează în prezent chatbot AI și instrumente de analiză pentru cele mai sensibile cazuri de utilizare ale armatei, s-a opus. Susține că tehnologiile sale nu sunt încă suficient de capabile pentru a fi utilizate pentru supravegherea internă în masă a americanilor sau pentru arme complet autonome. Hegseth a spus că Anthropic vrea puterea de veto asupra judecăților care ar trebui lăsate Departamentului Apărării.

Din punct de vedere istoric, desemnările de risc ale lanțului de aprovizionare au fost rezervate pentru a ține tehnologiile chineze în afara sistemelor militare americane pentru a menține securitatea operațională. Anthropic a avertizat recent că utilizarea acestei etichete pe o companie americană a „creat un precedent periculos”.

Săptămâna trecută, o coaliție de grupuri din industria tehnologiei, inclusiv TechNet, Business Software Alliance și Software Information Industry Association, au îndemnat administrația Trump să reconsidere desemnarea, argumentând într-o scrisoare că izolarea unei companii americane ca adversar, mai degrabă decât un activ, ar avea un efect negativ asupra inovației din SUA. Grupurile reprezintă companii tehnologice majore, inclusiv Apple, Google, Nvidia, Microsoft, Meta, IBM, Salesforce și Oracle.

O altă coaliție de tehnologiști de profil înalt și foști consilieri de securitate națională au trimis o scrisoare similară membrilor Comitetului Serviciilor Armate ale Senatului, avertizând că „utilizarea acestei autorități împotriva unei companii americane interne este o abatere profundă de la scopul său intenționat”. Scrisoarea a cerut ca Congresul să stabilească politici clare cu privire la utilizarea AI pentru supraveghere internă și sisteme de arme letale autonome. Printre semnatari s-au numărat fostul director CIA Michael Hayden, profesorul de drept de la Harvard Lawrence Lessig, fostul partener Andreessen Horowitz John O’Farrell, fostul subsecretar al armatei Brad Carson și mai mulți amirali militari foști sau pensionați.

Oficialii militari americani folosesc Claude mai ales prin instrumente independente care îl încorporează, inclusiv Maven Smart System de la Palantir, au declarat pentru WIRED persoane familiare cu problema. Îl folosesc pentru sarcini de bază, cum ar fi scrierea de documente și analize mai importante, cum ar fi planificarea atacurilor, a spus persoana. Dacă desemnarea de risc a lanțului de aprovizionare se menține, Palantir și alți contractori militari ar trebui să înlocuiască alternativele pentru Claude, potențial la un cost mai mare pentru guvern. Mai multe startup-uri AI axate pe utilizări de apărare, cum ar fi Vannevar Labs, și-au prezentat în ultimele zile modelele ca înlocuitori capabili. Palantir nu a răspuns unei solicitări de comentarii.

Mai multe agenții guvernamentale din afara armatei au declarat că vor înceta să mai folosească Claude pentru a se conforma unei directive de la președintele Donald Trump săptămâna trecută. Purtătoarea de cuvânt a Microsoft, Kate Frischmann, a declarat că gigantul tehnologic va continua să ofere Claude agențiilor și companiilor americane, cu excepția Departamentului Apărării. OpenAI nu a precizat când tehnologia sa va fi gata să înlocuiască Claude în software-ul militar.

Hegseth a spus că eliminarea treptată a serviciilor Anthropic ar putea dura până la șase luni. Joi, Amodei a scris că „conversații productive” cu Pentagonul sunt în curs de desfășurare pentru a rezolva disputa și că, în orice caz, compania va sprijini departamentul „atâta timp cât ni se permite să facem acest lucru”.