Anthropic nu poate manipula modelul său de inteligență artificială generativă, Claude, odată ce armata SUA îl utilizează, a declarat un director într-o declarație depusă vineri la tribunal. Afirmația a fost făcută ca răspuns la acuzațiile administrației Trump cu privire la posibilitatea companiei de a interveni în instrumentele sale AI în timpul războiului.
„Anthropic nu a avut niciodată capacitatea de a determina oprirea funcționării lui Claude, de a-i modifica funcționalitatea, de a întrerupe accesul sau de a influența sau periclita în alt mod operațiunile militare”, a scris Thiyagu Ramasamy, șeful sectorului public al Anthropic. „Anthropic nu are accesul necesar pentru a dezactiva tehnologia sau a modifica comportamentul modelului înainte sau în timpul operațiunilor în curs.”
Pentagonul se luptă de luni de zile cu laboratorul AI de top cu privire la modul în care tehnologia sa poate fi utilizată pentru securitatea națională și care ar trebui să fie limitele acestei utilizări. În această lună, secretarul apărării, Pete Hegseth, a etichetat Anthropic ca fiind un risc pentru lanțul de aprovizionare, o desemnare care va împiedica Departamentul Apărării să utilizeze software-ul companiei, inclusiv prin intermediul contractorilor, în lunile următoare. Alte agenții federale abandonează și ele Claude. Anthropic a depus două procese contestând constituționalitatea interdicției și solicită un ordin de urgență pentru a o anula. Cu toate acestea, clienții au început deja să anuleze acorduri. O audiere într-unul dintre cazuri este programată pentru 24 martie la tribunalul districtual federal din San Francisco. Judecătorul ar putea decide asupra unei anulări temporare la scurt timp după aceea.
Într-o declarație depusă la începutul acestei săptămâni, avocații guvernului au scris că Departamentul Apărării „nu este obligat să tolereze riscul ca sistemele militare critice să fie puse în pericol în momente cruciale pentru apărarea națională și operațiunile militare active”.
Pentagonul a folosit Claude pentru a analiza date, a scrie note și a ajuta la generarea planurilor de luptă, a raportat WIRED. Argumentul guvernului este că Anthropic ar putea perturba operațiunile militare active prin întreruperea accesului la Claude sau prin împingerea de actualizări dăunătoare dacă compania dezaprobă anumite utilizări. Ramasamy a respins această posibilitate.
„Anthropic nu menține nicio ușă din spate sau „întrerupător de oprire” la distanță”, a scris el. „Personalul Anthropic nu se poate, de exemplu, conecta la un sistem DoW pentru a modifica sau dezactiva modelele în timpul unei operațiuni; tehnologia pur și simplu nu funcționează în acest fel.”
El a continuat spunând că Anthropic ar putea oferi actualizări numai cu aprobarea guvernului și a furnizorului său de cloud, în acest caz Amazon Web Services, deși nu l-a specificat pe nume. Ramasamy a adăugat că Anthropic nu poate accesa solicitările sau alte date pe care utilizatorii militari le introduc în Claude.
Directorii Anthropic susțin în declarațiile depuse la tribunal că compania nu dorește puterea de veto asupra deciziilor tactice militare. Sarah Heck, șefa departamentului de politici, a scris într-o declarație depusă vineri la tribunal că Anthropic era dispusă să garanteze acest lucru într-un contract propus la 4 martie. „Pentru evitarea oricărui dubiu, [Anthropic] înțelege că această licență nu acordă sau conferă niciun drept de a controla sau a opune veto luarea deciziilor operaționale legale ale Departamentului de Război”, se arată în propunere, conform declarației, care se referea la un nume alternativ pentru Pentagon. Compania era, de asemenea, pregătită să accepte o formulare care să abordeze preocupările sale cu privire la faptul că Claude este folosit pentru a ajuta la efectuarea de lovituri mortale fără supraveghere umană, a susținut Heck. Dar negocierile au eșuat în cele din urmă.
Deocamdată, Departamentul Apărării a declarat în declarațiile depuse la tribunal că „ia măsuri suplimentare pentru a atenua riscul lanțului de aprovizionare” pe care îl prezintă compania, „colaborând cu furnizorii de servicii cloud terți pentru a se asigura că conducerea Anthropic nu poate face modificări unilaterale” sistemelor Claude aflate în prezent în vigoare.

