Anthropic afirmă că ar fi „nefondat din punct de vedere juridic” ca Pentagonul să-i includă tehnologia pe lista neagră, după ce negocierile privind utilizarea militară a modelelor sale de inteligență artificială au eșuat.
Secretarul Apărării al Statelor Unite, Pete Hegseth, a cerut Pentagonului să desemneze Anthropic drept „risc pentru lanțul de aprovizionare” vineri, provocând un șoc în Silicon Valley și determinând multe companii să încerce să înțeleagă dacă pot continua să utilizeze unul dintre cele mai populare modele AI din industrie.
„Cu efect imediat, niciun contractor, furnizor sau partener care face afaceri cu armata Statelor Unite nu poate desfășura nicio activitate comercială cu Anthropic”, a scris Hegseth într-o postare pe social media.
Această desemnare vine după săptămâni de negocieri tensionate între Pentagon și Anthropic cu privire la modul în care armata SUA ar putea utiliza modelele AI ale startup-ului. Într-o postare pe blog din această săptămână, Anthropic a susținut că contractele sale cu Pentagonul nu ar trebui să permită utilizarea tehnologiei sale pentru supravegherea internă în masă a americanilor sau pentru arme complet autonome. Pentagonul a cerut ca Anthropic să fie de acord să permită armatei SUA să aplice AI-ul său la „toate utilizările legale”, fără excepții specifice.
O desemnare de risc pentru lanțul de aprovizionare permite Pentagonului să restricționeze sau să excludă anumiți furnizori din contractele de apărare dacă sunt considerați a prezenta vulnerabilități de securitate, cum ar fi riscuri legate de proprietatea, controlul sau influența străină. Este destinat să protejeze sistemele și datele militare sensibile de potențiale compromisuri.
Anthropic a răspuns într-o altă postare pe blog vineri seara, spunând că „va contesta orice desemnare de risc pentru lanțul de aprovizionare în instanță” și că o astfel de desemnare ar „stabili un precedent periculos pentru orice companie americană care negociază cu guvernul”. Anthropic a adăugat că nu a primit nicio comunicare directă din partea Departamentului Apărării sau a Casei Albe cu privire la negocierile privind utilizarea modelelor sale AI.
„Secretarul Hegseth a insinuat că această desemnare ar restricționa pe oricine face afaceri cu armata de a face afaceri cu Anthropic. Secretarul nu are autoritatea legală pentru a susține această declarație”, a scris compania. Pentagonul a refuzat să comenteze.
„Acesta este lucrul cel mai șocant, dăunător și exagerat pe care l-am văzut vreodată guvernul Statelor Unite făcând”, spune Dean Ball, membru senior al Fundației pentru Inovație Americană și fost consilier politic superior pentru AI la Casa Albă. „Practic, tocmai am sancționat o companie americană. Dacă ești american, ar trebui să te gândești dacă ar trebui să trăiești aici peste 10 ani.”
Oameni din întreaga Silicon Valley au intervenit pe rețelele de socializare exprimând un șoc și o consternare similare. „Oamenii care conduc această administrație sunt impulsivi și răzbunători. Cred că acest lucru este suficient pentru a explica comportamentul lor”, a spus Paul Graham, fondatorul acceleratorului de startup-uri Y Combinator.
Boaz Barak, un cercetător OpenAI, a spus într-o postare că „îngenuncherea uneia dintre companiile noastre AI de top este exact cel mai rău autogol pe care îl putem face. Sper foarte mult că vor prevala minți mai calme și că acest anunț va fi inversat.”
Între timp, CEO-ul OpenAI, Sam Altman, a anunțat vineri seara că compania a ajuns la un acord cu Departamentul Apărării pentru a-și implementa modelele AI în medii clasificate, aparent cu rezerve. „Două dintre cele mai importante principii de siguranță ale noastre sunt interdicțiile privind supravegherea internă în masă și responsabilitatea umană pentru utilizarea forței, inclusiv pentru sistemele de arme autonome”, a spus Altman. „DoW este de acord cu aceste principii, le reflectă în lege și în politică și le includem în acordul nostru.”
Clienți confuzi
În postarea sa de pe blog de vineri, Anthropic a spus că o desemnare de risc pentru lanțul de aprovizionare, conform autorității 10 USC 3252, se aplică numai contractelor Departamentului Apărării direct cu furnizorii și nu acoperă modul în care contractanții utilizează software-ul său Claude AI pentru a deservi alți clienți.
Trei experți în contracte federale spun că este imposibil în acest moment să se determine care clienți Anthropic, dacă există, trebuie să întrerupă acum legăturile cu compania. Anunțul lui Hegseth „nu este împotmolit în nicio lege pe care o putem divina în acest moment”, spune Alex Major, partener la firma de avocatură McCarter & English, care lucrează cu companii de tehnologie.
Amazon, Microsoft, Google și Nvidia - toate companiile care oferă servicii armatei SUA și lucrează cu Anthropic - nu au răspuns imediat solicitării WIRED de comentarii. Anduril și Shield AI, două companii proeminente de tehnologie de apărare axate pe inteligența artificială, au refuzat ambele să comenteze.
Desemnările de risc pentru lanțul de aprovizionare nu intră de obicei în vigoare imediat, iar guvernul SUA este obligat să finalizeze evaluări ale riscurilor și să notifice Congresul înainte ca partenerii militari să fie nevoiți să întrerupă legăturile cu o companie sau cu produsele sale, potrivit lui Charlie Bullock, cercetător senior la Institutul pentru Drept și Inteligență Artificială.
Dar situația ar putea totuși să descurajeze alte companii de tehnologie să lucreze cu Pentagonul, potrivit lui Greg Allen, consilier senior la Centrul AI Wadhwani de la Centrul pentru Studii Strategice și Internaționale (CSIS). „Departamentul Apărării tocmai a trimis un mesaj uriaș către fiecare companie că, dacă îți bagi degetul în apele contractelor de apărare, îți vom prinde glezna și te vom trage până la capăt, oricând dorim”, spune el.
Mai mulți experți juridici spun pentru WIRED că Anthropic este probabil să dea în judecată guvernul. Hegseth a sugerat anterior că DoD ar putea ataca Anthropic invocând Legea privind producția de apărare, care ar obliga compania să furnizeze tehnologia sa Pentagonului. Allen spune că aceste fluctuații subminează argumentul Pentagonului conform căruia Anthropic este un risc autentic pentru lanțul de aprovizionare.
Cu toate acestea, un proces ar putea dura luni sau ani pentru a fi soluționat, iar afacerile Anthropic ar putea avea de suferit între timp dacă companiile sunt forțate să rupă legăturile. Disputa ridică întrebări critice pentru o multitudine de parteneri militari americani proeminenți, cum ar fi Nvidia, Amazon, Google și Palantir, care lucrează îndeaproape cu Anthropic.
Un director executiv din domeniul tehnologiei, a cărui companie software este utilizată de armata SUA și a solicitat anonimatul din cauza sensibilității situației, a spus că, până când directiva Departamentului Apărării va depăși o postare pe social media, compania sa este într-un punct mort și are avocați care examinează problema. Ca o comparație, directorul a menționat secțiunea 889 din Legea privind autorizarea apărării naționale, o interdicție de achiziție care interzice agențiilor federale să contracteze cu companii care utilizează anumite echipamente de telecomunicații chineze ca „componentă substanțială sau esențială” a oricărui sistem. Dacă acest nou mandat este similar, acesta ar putea fi o „ștanță înaltă de trecut”, spune directorul executiv, deoarece chiar dacă o companie de tehnologie utilizează Claude Code de la Anthropic intern, s-ar putea să nu fie definită ca o parte „esențială” a produsului pe care îl vinde în cele din urmă guvernului.

