Administrația Trump a elaborat noi linii directoare agresive pentru contractele civile de inteligență artificială, solicitând companiilor să permită "orice utilizare legală" a modelelor lor de către guvernul SUA, potrivit Financial Times.
Măsura vine după o confruntare tensionată între Departamentul de Război și Anthropic, care a culminat joi cu desemnarea firmei de IA drept "risc de lanț de aprovizionare" de către Pentagon.
Sentimentul pieței în sectorul tehnologic a rămas precaut în urma raportului. Acțiunile firmelor adiacente IA au ezitat, pe măsură ce investitorii au evaluat potențialul unei represiuni de reglementare mai ample asupra protecțiilor "etice" care intră în conflict cu obiectivele de securitate națională. Nasdaq 100 a scăzut cu 1,51% până la 15:59 ET (20:59 GMT), în timp ce Microsoft Corporation (NASDAQ: MSFT ) a scăzut cu 0,42%, iar Alphabet Inc Class A (NASDAQ: GOOGL ) a scăzut cu 0,78%, pe măsură ce industria a cântărit implicațiile cerinței "licență irevocabilă" a Administrației Generale de Servicii (GSA) din SUA.
Noile reguli ale Administrației Generale de Servicii (GSA) prezintă o poziție din ce în ce mai fermă în cadrul instituției militare. Desemnarea Anthropic drept "risc de lanț de aprovizionare" de către Pentagon, o etichetă rezervată de obicei entităților străine precum Huawei, interzice efectiv oricărui contractor guvernamental să utilizeze tehnologia firmei.
"Lista neagră" provine dintr-o dispută de luni de zile cu privire la refuzul Anthropic de a renunța la garanțiile împotriva supravegherii interne în masă și a utilizării modelelor sale Claude în arme autonome letale. Secretarul de Război Pete Hegseth a apărat măsura vineri, afirmând că SUA au nevoie de parteneri tehnologici "patriotici" care să nu impună "linii roșii" restrictive asupra operațiunilor legale. Anthropic a susținut că desemnarea este nefondată din punct de vedere legal și intenționează să conteste decizia în instanță. Administrația Trump a acordat o perioadă de tranziție de șase luni pentru ca agențiile să migreze de la sistemele Anthropic.
Noul proiect GSA publicat prevede că contractanții IA nu trebuie să "codifice intenționat judecăți partizane sau ideologice" în rezultatele lor de date. Regula își propune să elimine ceea ce administrația descrie drept "prejudecăți încorporate" sau "wokeness" din modelele finanțate de guvern. Companiile trebuie acum să dezvăluie dacă modelele lor au fost modificate pentru a se conforma cadrelor de reglementare non-americane, cum ar fi Legea UE privind IA. Analistii de la Evercore ISI au remarcat că aceste cerințe ar putea forța o "decuplare" a stivei americane de IA de standardele globale.
Comercianții urmăresc acum cu atenție un răspuns de la OpenAI, care se pare că a intervenit pentru a umple vidul Pentagonului la scurt timp după exilul Anthropic.

