Cash News Logo

Angajații din Tehnologie Solicită Departamentului Apărării și Congresului să Retragă Eticheta Anthropic ca Risc pentru Lanțul de Aprovizionare

Tech & AI2 martie 2026, 19:18
Angajații din Tehnologie Solicită Departamentului Apărării și Congresului să Retragă Eticheta Anthropic ca Risc pentru Lanțul de Aprovizionare

Angajații din tehnologie solicită Departamentului Apărării și Congresului să retragă eticheta Anthropic ca risc pentru lanțul de aprovizionare

Sute de angajați din domeniul tehnologiei au semnat o scrisoare deschisă prin care îndeamnă Departamentul Apărării să retragă desemnarea Anthropic ca „risc pentru lanțul de aprovizionare”. Scrisoarea solicită, de asemenea, Congresului să intervină și să „examineze dacă utilizarea acestor autorități extraordinare împotriva unei companii americane de tehnologie este adecvată”.

Scrisoarea include semnatari de la firme importante de tehnologie și capital de risc, inclusiv OpenAI, Slack, IBM, Cursor, Salesforce Ventures și altele.

Aceasta vine în urma unei dispute între DOD și Anthropic după ce laboratorul AI săptămâna trecută a refuzat să ofere armatei acces nerestricționat la sistemele sale AI. Cele două linii roșii ale lui Anthropic în negocierile sale cu Pentagonul au fost că nu dorea ca tehnologia sa să fie folosită pentru supraveghere în masă asupra americanilor sau pentru a alimenta arme autonome care luau decizii de țintire și tragere fără o persoană în buclă. DOD a spus că nu are planuri să facă niciuna dintre aceste lucruri, dar că nu credea că ar trebui să fie limitat de regulile unui furnizor.

Ca răspuns la refuzul CEO-ului Anthropic, Dario Amodei, de a ceda la amenințările lui Hegseth, președintele Donald Trump a ordonat vineri agențiilor federale să nu mai folosească tehnologia Anthropic după o perioadă de tranziție de șase luni. Hegseth a spus că își va respecta amenințările și va desemna Anthropic un risc pentru lanțul de aprovizionare - o desemnare rezervată în mod normal adversarilor străini care ar interzice firmei AI să lucreze cu orice agenție sau companie care face afaceri cu Pentagonul. Într-o postare de vineri, Hegseth a scris: „Cu efect imediat, niciun contractant, furnizor sau partener care face afaceri cu armata Statelor Unite nu poate desfășura nicio activitate comercială cu Anthropic.”

Dar o postare pe X nu transformă automat Anthropic într-un risc pentru lanțul de aprovizionare. Guvernul trebuie să finalizeze o evaluare a riscurilor și să notifice Congresul înainte ca partenerii militari să fie nevoiți să întrerupă legăturile cu Anthropic sau cu produsele sale. Anthropic a declarat într-o postare pe blog că destinația este atât „neîntemeiată din punct de vedere legal”, cât și că va „contesta în instanță orice desemnare de risc pentru lanțul de aprovizionare”.

Mulți din industrie consideră tratamentul Anthropic de către administrație ca fiind dur și o răzbunare clară.

„Când două părți nu pot conveni asupra termenilor, cursul normal este să se despartă și să lucreze cu un concurent”, se arată în scrisoarea deschisă. „Această situație creează un precedent periculos. Pedepsirea unei companii americane pentru că a refuzat să accepte modificări la un contract transmite un mesaj clar fiecărei companii de tehnologie din America: acceptați orice termeni cere guvernul sau riscați represalii.”

Dincolo de îngrijorarea cu privire la tratamentul dur al guvernului față de Anthropic, mulți din industrie sunt încă preocupați de potențialul exces de putere al guvernului și de utilizarea AI în scopuri nefaste. Boaz Barak, un cercetător OpenAI, a scris într-o postare pe rețelele sociale luni că blocarea guvernelor de la utilizarea AI pentru a face supraveghere în masă este, de asemenea, „linia sa roșie personală” și „ar trebui să fie a noastră a tuturor”.

La scurt timp după ce Trump a atacat public Anthropic, OpenAI a anunțat că a ajuns la un acord propriu pentru ca modelele sale să fie implementate în mediile clasificate ale DOD. CEO-ul OpenAI, Sam Altman, a declarat săptămâna trecută că firma are aceleași linii roșii ca și Anthropic.

„Dacă ceva bun poate ieși din evenimentele din ultima săptămână, ar fi dacă noi, în industria AI, începem să tratăm problema utilizării AI pentru abuzul guvernamental și supravegherea propriei sale populații ca un risc catastrofal de sine stătător”, a scris Barak. „Am făcut o treabă bună de evaluări, atenuări și procese, pentru riscuri precum armele biologice și securitatea cibernetică. Să folosim procese similare aici.”