Anthropic a declarat că nu va accepta cererea Pentagonului de a elimina măsurile de protecție din sistemele sale de inteligență artificială (AI), în ciuda amenințărilor de a considera compania un "risc pentru lanțul de aprovizionare" și de a o elimina din sistemele Departamentului Apărării, punând în pericol un contract de 200 de milioane de dolari.
Disputa Pentagonului cu Anthropic provine din refuzul startup-ului AI de a elimina garanțiile care ar împiedica utilizarea tehnologiei sale pentru a ținti arme în mod autonom și pentru a efectua supraveghere în Statele Unite.
Mai devreme în cursul zilei, purtătorul de cuvânt al Pentagonului, Sean Parnell, a declarat pe X că departamentul nu are niciun interes să utilizeze AI pentru a efectua supraveghere în masă a americanilor și nici nu dorește să utilizeze AI pentru a dezvolta arme autonome care operează fără implicarea umană. "Iată ce cerem: Permiteți Pentagonului să utilizeze modelul Anthropic pentru toate scopurile legale", a spus Parnell, adăugând că compania are timp până vineri, la ora 17:01 ET, să decidă. "În caz contrar, vom rezilia parteneriatul nostru cu Anthropic și îi vom considera un risc pentru lanțul de aprovizionare."
Într-o declarație de joi, CEO-ul Anthropic, Dario Amodei, a subliniat opoziția companiei față de utilizarea de către Pentagon a modelelor sale AI pentru supravegherea internă în masă sau pentru a alimenta arme complet autonome, aceasta din urmă deoarece "sistemele AI de frontieră pur și simplu nu sunt suficient de fiabile".
O sursă apropiată companiei a declarat că Anthropic nu acuza Pentagonul că intenționează să angajeze AI pentru niciuna dintre aceste utilizări, ci oferea o judecată de siguranță a produsului. Sursa a spus că sistemele AI nu sunt suficient de fiabile pentru "țintirea vieții sau a morții", deoarece se comportă imprevizibil în scenarii noi, ceea ce ar putea duce la "foc prietenesc, eșecul misiunii sau escaladarea neintenționată" într-un context de arme.
Utilizarea AI pentru supravegherea internă în masă era problematică deoarece legile actuale nu restricționează concluziile pe care AI le poate trage prin agregarea unor cantități mari de date, a spus sursa. Asta însemna că AI ar putea construi profiluri la nivel de populație pe care "nicio lege nu le interzice în mod explicit, dar care încalcă în mod clar spiritul protecțiilor constituționale", au adăugat aceștia.
Amodei a spus că speră că Pentagonul va reconsidera, dar că compania "va lucra pentru a permite o tranziție lină către un alt furnizor", dacă Pentagonul decide să anuleze contractul.
Pentagonul a amenințat că va elimina Anthropic din sistemele sale dacă compania menține măsurile de protecție, le va desemna un risc pentru lanțul de aprovizionare și va invoca Legea privind producția de apărare pentru a forța eliminarea măsurilor de protecție, a spus Amodei. "Indiferent, aceste amenințări nu ne schimbă poziția: nu putem, cu bună conștiință, să acceptăm cererea lor."
Subsecretarul Apărării, Emil Michael, a răspuns pe X, spunând: "Este păcat că @DarioAmodei este un mincinos și are un complex de Dumnezeu. Nu vrea decât să încerce să controleze personal armata SUA și este de acord să pună în pericol siguranța națiunii noastre." Michael a spus că Pentagonul "VA adera ÎNTOTDEAUNA la lege, dar nu se va supune capriciilor niciunei companii tehnologice cu scop lucrativ."
Anthropic, susținută de Google și Amazon, are un contract cu departamentul în valoare de până la 200 de milioane de dolari. Un purtător de cuvânt al Anthropic a declarat că compania rămâne "pregătită să continue discuțiile și se angajează să asigure continuitatea operațională pentru Departamentul și luptătorii Americii."
Peste 200 de angajați Google și OpenAI au susținut poziția Anthropic într-o scrisoare deschisă.
Google și OpenAI nu au răspuns imediat unei solicitări de comentarii din partea Reuters.

