Cash News Logo

Controversele Anthropic și Pentagonul: Vor fi startup-urile reticente în a lucra cu apărarea?

Tech & AI8 martie 2026, 22:14
Controversele Anthropic și Pentagonul: Vor fi startup-urile reticente în a lucra cu apărarea?

La doar o săptămână, negocierile privind utilizarea tehnologiei Claude de către Pentagon au eșuat, administrația Trump a desemnat Anthropic ca risc în lanțul de aprovizionare, iar compania AI a declarat că va contesta această desemnare în instanță. Între timp, OpenAI a anunțat rapid propriul acord, provocând reacții negative care au dus la dezinstalarea ChatGPT și la propulsarea Claude de la Anthropic în topul clasamentelor App Store. Și cel puțin un director OpenAI a demisionat din cauza îngrijorărilor că anunțul a fost făcut în grabă, fără garanțiile adecvate.

În cel mai recent episod al podcastului Equity de la TechCrunch, Kirsten Korosec, Sean O’Kane și cu mine am discutat despre ce înseamnă acest lucru pentru alte startup-uri care doresc să colaboreze cu guvernul federal, în special cu Pentagonul, Kirsten întrebându-se: „Vom vedea o schimbare a tonului?”

Sean a subliniat că aceasta este o situație neobișnuită din mai multe puncte de vedere, în parte pentru că OpenAI și Claude produc produse despre care „nimeni nu se poate opri din vorbit”. Și, crucial, aceasta este o dispută cu privire la „modul în care tehnologiile lor sunt folosite sau nu sunt folosite pentru a ucide oameni”, deci în mod natural va atrage o atenție sporită.

Cu toate acestea, Kirsten a argumentat că aceasta este o situație care ar trebui să „pună pe gânduri orice startup”.

Citiți o previzualizare a conversației noastre, editată pentru lungime și claritate, mai jos.

Kirsten: Mă întreb dacă alte startup-uri încep să analizeze ce s-a întâmplat cu guvernul federal, în special cu Pentagonul și Anthropic, acea dezbatere și acea luptă, și să [ia] o pauză despre dacă vor să urmărească banii federali. Vom vedea o schimbare a tonului?

Sean: Mă întreb și eu despre asta. Cred că nu, într-o oarecare măsură, pe termen scurt, doar pentru că, atunci când încerci cu adevărat să te gândești la toate companiile diferite, fie că sunt startup-uri, fie chiar și companii Fortune 500 mai consacrate care lucrează cu guvernul și în special cu Departamentul Apărării sau Pentagonul, [pentru] multe dintre ele, acea muncă trece neobservată. General Motors produce vehicule de apărare pentru armată și a făcut [asta] de foarte mult timp și a lucrat la versiuni complet electrice ale acelor vehicule și la versiuni autonome. Se întâmplă astfel de lucruri tot timpul și nu ajung niciodată cu adevărat în zeitgeist.

Cred că problema cu care s-au confruntat OpenAI și Anthropic în ultima săptămână este că acestea sunt companii care produc produse pe care o mulțime de oameni le folosesc - și, mai important, [despre care] nimeni nu se poate opri din vorbit. Deci, există doar un astfel de punct focal asupra lor, care le evidențiază în mod natural implicarea la un nivel cu care cred că majoritatea celorlalte companii care contractează cu guvernul federal - și, în special, oricare dintre elementele de luptă ale guvernului federal - nu trebuie neapărat să se confrunte.

Singura avertizare pe care o voi adăuga este că o mare parte din căldura din jurul acestei discuții dintre Anthropic și OpenAI și Pentagon este foarte specifică modului în care tehnologiile lor sunt folosite sau nu sunt folosite pentru a ucide oameni, sau în părți ale misiunilor care ucid oameni. Nu este doar atenția care este asupra lor și familiaritatea pe care o avem cu mărcile lor, există un element suplimentar acolo pe care îl simt mai abstract atunci când te gândești la General Motors ca contractor de apărare sau orice altceva. Nu cred că vom vedea, cum ar fi, Applied Intuition sau oricare dintre aceste alte companii care s-au prezentat ca fiind cu dublă utilizare să se retragă prea mult, doar pentru că nu văd atenția asupra ei și pur și simplu nu există un fel de înțelegere comună a ceea ce ar putea fi acel impact.

Anthony: Această poveste este atât de unică și specifică acestor companii și personalități în multe feluri. Adică, au existat o mulțime de piese de gândire foarte interesante despre: Care este rolul tehnologiei în guvern? [Al] AI în guvern? Și cred că toate acestea sunt întrebări bune și valoroase de pus și de explorat. Cred, de asemenea, totuși, că aceasta este o lentilă foarte curioasă prin care să examinăm unele dintre aceste lucruri, deoarece Anthropic și OpenAI nu sunt de fapt atât de diferite în multe feluri sau în pozițiile pe care le adoptă. Nu este ca și cum o companie spune: „Hei, nu vreau să lucrez cu guvernul” și alta spune: „Da, vreau”. Sau una spune: „Poți face ce vrei” și [cealaltă] spune: „Nu, vreau să am restricții”. Ambele, cel puțin public, spun: „Vrem restricții asupra modului în care este folosită AI-ul nostru”. Se pare că Anthropic se încăpățânează mult mai mult cu privire la: Nu puteți schimba termenii în acest fel. Și apoi, pe deasupra, pare să existe și un strat de personalitate în care, CEO-ul Anthropic și Emil Michael - pe care mulți cititori TechCrunch s-ar putea să-l amintească din zilele sale Uber, și acum este [directorul tehnologic al Departamentului Apărării]. Aparent, pur și simplu nu se plac foarte mult. Se spune.

Sean: Da, există un element foarte mare de „fetele se ceartă” pe care nu ar trebui să-l trecem cu vederea.

Kirsten: Da, puțin. Există, dar implicațiile sunt puțin mai puternice decât atât. Din nou, pentru a reveni puțin, ceea ce vorbim aici este că Pentagonul și Anthropic intră într-o dispută în care Anthropic pare să fi pierdut, deși ar trebui să spun că sunt încă foarte mult folosiți de armată. Sunt considerați o tehnologie crucială, dar OpenAI a intervenit, iar acest lucru evoluează și probabil se va schimba până la difuzarea acestui episod. Reacția negativă a fost interesantă pentru OpenAI, unde am văzut o mulțime de dezinstalări ale ChatGPT, cred că a crescut cu 295% după ce OpenAI a încheiat acordul cu Departamentul Apărării. Pentru mine, toate acestea sunt zgomot față de lucrul cu adevărat critic și periculos, care este că Pentagonul a căutat să schimbe termenii existenți ai unui contract existent. Și acest lucru este foarte important și ar trebui să pună pe gânduri orice startup, deoarece mașinăria politică care se întâmplă în prezent, în special cu DoD, pare să fie diferită. Acest lucru nu este normal. Contractele durează o veșnicie pentru a fi elaborate la nivel guvernamental, iar faptul că încearcă să schimbe acești termeni este o problemă.