Cash News Logo

Compania AI Anthropic Dă În Judecată Administrația Trump Din Cauza Etichetei de 'Risc Pentru Lanțul de Aprovizionare'

Tech & AI10 martie 2026, 04:56
Compania AI Anthropic Dă În Judecată Administrația Trump Din Cauza Etichetei de 'Risc Pentru Lanțul de Aprovizionare'

Anthropic, creatorul software-ului AI Claude, a dat în judecată administrația Trump pentru ceea ce consideră a fi o „campanie ilegală de represalii” după ce compania a refuzat să permită armatei utilizarea nelimitată a tehnologiei sale.

Anthropic a dat în judecată mai multe agenții și oficiali guvernamentali într-un tribunal federal din California, luni, cerând instanței să anuleze decizia Departamentului Apărării de a eticheta compania drept „risc pentru lanțul de aprovizionare”. De asemenea, solicită anularea directivei președintelui SUA, Donald Trump, către angajații federali de a înceta utilizarea Claude.

Anthropic a depus, de asemenea, o acțiune în instanță la o curte de apel din Washington, D.C., pentru a contesta decizia Departamentului Apărării.

„Aceste acțiuni sunt fără precedent și ilegale”, a argumentat Anthropic. „Constituția nu permite guvernului să-și exercite puterea enormă pentru a pedepsi o companie pentru discursul său protejat.”

Claude „nu a fost niciodată testat” pentru utilizările dorite de Pentagon

Luna trecută, secretarul Apărării, Pete Hegseth, care este numit în proces, a trecut la etichetarea Anthropic drept un risc pentru lanțul de aprovizionare, care a fost finalizat pe 3 martie, ceea ce înseamnă că orice persoană sau afacere care face afaceri cu armata nu poate trata și cu Anthropic.

Este prima dată când o companie americană este desemnată drept un risc pentru lanțul de aprovizionare, o etichetă de obicei rezervată companiilor legate de adversari străini.

Guvernul SUA și Pentagonul au folosit Anthropic din 2024, iar tehnologia companiei este primul AI care este implementat pentru utilizare în munca clasificată.

Anthropic a declarat că decizia lui Hegseth a venit după ce acesta a cerut companiei să „renunțe cu totul la restricțiile sale de utilizare”, dar Anthropic și-a menținut părerea că tehnologia sa nu ar trebui utilizată pentru război autonom letal și supraveghere în masă a americanilor, clauze care au făcut întotdeauna parte din contractele sale guvernamentale.

Un fragment din procesul Anthropic care susține că președintele SUA, Donald Trump, a ordonat agențiilor federale să înceteze utilizarea tehnologiei sale după ce guvernul a fost de acord cu termenii săi. Sursa: CourtListener

„Anthropic nu a testat niciodată Claude pentru aceste utilizări”, a declarat compania în procesul său. „Anthropic nu are în prezent încredere, de exemplu, că Claude ar funcționa fiabil sau în siguranță dacă ar fi folosit pentru a sprijini războiul autonom letal.”

Procesul Anthropic a numit, de asemenea, Trezoreria SUA și secretarul său, Scott Bessent, Departamentul de Stat și secretarul de stat Marco Rubio, împreună cu alte 17 agenții și oficiali guvernamentali.

Un grup de peste 30 de ingineri și oameni de știință AI de la OpenAI și Google, inclusiv directorul științific al acesteia din urmă, Jeff Dean, a depus, de asemenea, o notă juridică în sprijinul Anthropic, luni.

„Dacă i se permite să continue, acest efort de a pedepsi una dintre principalele companii AI din SUA va avea, fără îndoială, consecințe pentru competitivitatea industrială și științifică a Statelor Unite în domeniul inteligenței artificiale și nu numai”, a scris grupul.