Dario Amodei a declarat joi că Anthropic intenționează să conteste în instanță decizia Departamentului Apărării de a eticheta firma de inteligență artificială drept un risc în lanțul de aprovizionare, o desemnare pe care a numit-o „lipsită de temei legal”.
Declarația vine la câteva ore după ce Departamentul a desemnat oficial Anthropic drept un risc în lanțul de aprovizionare, ca urmare a unei dispute de săptămâni cu privire la cât de mult control ar trebui să aibă armata asupra sistemelor de inteligență artificială. O desemnare de risc în lanțul de aprovizionare poate interzice unei companii să lucreze cu Pentagonul și cu contractorii săi.
Amodei a trasat o linie fermă că inteligența artificială a Anthropic nu ar trebui să fie utilizată pentru supravegherea în masă a americanilor sau pentru arme complet autonome, dar Pentagonul a considerat că ar trebui să aibă acces nelimitat pentru „toate scopurile legale”.
În declarația sa, Amodei a spus că marea majoritate a clienților Anthropic nu sunt afectați de desemnarea riscului în lanțul de aprovizionare. „În ceea ce privește clienții noștri, se aplică în mod clar numai utilizării Claude de către clienți ca parte directă a contractelor cu Departamentul Apărării, nu întregii utilizări a Claude de către clienții care au astfel de contracte”, a spus el.
Ca o previzualizare a ceea ce Anthropic va argumenta probabil în instanță, Amodei a spus că scrisoarea Departamentului care etichetează firma drept un risc în lanțul de aprovizionare are o sferă restrânsă. „Există pentru a proteja guvernul, mai degrabă decât pentru a pedepsi un furnizor; de fapt, legea cere Secretarului Apărării să folosească mijloacele cele mai puțin restrictive necesare pentru a atinge scopul protejării lanțului de aprovizionare”, a spus Amodei. „Chiar și pentru contractorii Departamentului Apărării, desemnarea riscului în lanțul de aprovizionare nu limitează (și nu poate limita) utilizările Claude sau relațiile de afaceri cu Anthropic, dacă acestea nu sunt legate de contractele lor specifice cu Departamentul Apărării.”
Amodei a reiterat că Anthropic a avut conversații productive cu Departamentul în ultimele câteva zile, conversații despre care unii suspectează că au deraiat când un memo intern pe care l-a trimis personalului a fost divulgat. În el, Amdodei a caracterizat tranzacțiile rivalului OpenAI cu Departamentul Apărării drept „teatru de siguranță”.
OpenAI a semnat un acord pentru a lucra cu Departamentul Apărării în locul Anthropic, o mutare care a stârnit reacții negative în rândul personalului OpenAI.
Amodei și-a cerut scuze pentru scurgerea de informații în declarația sa de joi, susținând că compania nu a distribuit intenționat memo-ul și nu a cerut nimănui să facă acest lucru. „Nu este în interesul nostru să escaladăm situația”, a spus el.
Amodei a spus că memo-ul a fost scris în „câteva ore” de la o serie de anunțuri, inclusiv o postare prezidențială Truth Social care spunea că Anthropic va fi eliminat din sistemele federale, apoi desemnarea riscului în lanțul de aprovizionare de către secretarul Apărării Hegseth și, în final, anunțul acordului Pentagonului cu OpenAI. Și-a cerut scuze pentru ton, numindu-l „o zi dificilă pentru companie” și a spus că memo-ul nu reflectă „opiniile sale atente sau considerate”. Scris acum șase zile, a adăugat el, este acum o „evaluare depășită”.
El a încheiat spunând că prioritatea principală a Anthropic este să se asigure că soldații americani și experții în securitate națională mențin accesul la instrumente importante în mijlocul operațiunilor de luptă majore în curs de desfășurare. Anthropic sprijină în prezent unele dintre operațiunile SUA în Iran, iar Amodei a spus că compania va continua să furnizeze modelele sale Departamentului Apărării la „cost nominal” „atât timp cât este necesar pentru a face această tranziție”.
Anthropic ar putea contesta desemnarea în instanță federală, probabil în Washington, dar legea din spatele deciziei face mai dificilă contestarea, deoarece limitează modalitățile obișnuite prin care companiile pot contesta deciziile de achiziții guvernamentale și oferă Pentagonului o largă discreție cu privire la problemele de securitate națională. Sau, după cum a spus Dean Ball – un fost consilier al Casei Albe din epoca Trump în domeniul inteligenței artificiale, care s-a pronunțat împotriva tratamentului aplicat de Hegseth față de Anthropic – „Instanțele sunt destul de reticente în a se îndoi de guvern în ceea ce este și nu este o problemă de securitate națională... Există o barieră foarte înaltă pe care trebuie să o depășești pentru a face asta. Dar nu este imposibil.”

