Astăzi, în Uncanny Valley, analizăm rapoartele recente conform cărora administrația Trump ia în considerare un ordin executiv care ar stabili un fel de supraveghere federală asupra noilor modele de AI.
În această săptămână, echipa Uncanny Valley discută despre rapoartele surprinzătoare privind aparenta inversare a poziției administrației Trump în ceea ce privește siguranța și reglementarea AI. Analizăm, de asemenea, ce se întâmplă exact cu focarul de Hantavirus și dacă ar trebui să ne facem griji. În plus, analizăm povestea despre modul în care un fost angajat federal, care a fost înlăturat de așa-numitul Departament de Eficiență Guvernamentală al lui Elon Musk, candidează acum pentru un post. În plus, un angajat concediat de Spirit Airlines împărtășește cu noi modul în care a experimentat vestea închiderii companiei weekendul trecut și ce îi va lipsi cel mai mult la acest loc de muncă.
Articole menționate în acest episod: Un angajat federal a fost concediat pentru că a filmat DOGE. Acum candidează la Congres. Ce înseamnă implozia Spirit Airlines pentru vacanța dvs. Puteți urmări Brian Barrett pe Bluesky la @brbarrett, Zoë Schiffer pe Bluesky la @zoeschiffer și Leah Feiger pe Bluesky la @leahfeiger. Scrieți-ne la [email protected].
Notă: Aceasta este o transcriere automată, care poate conține erori.
Zoë Schiffer: Bine ați venit la Uncanny Valley de la WIRED. Sunt Zoë Schiffer, director de afaceri și industrie.
Brian Barrett: Sunt Brian Barrett, redactor executiv.
Leah Feiger: Și sunt Leah Feiger, director de politică și știință.
Zoë Schiffer: Astăzi, în emisiune, analizăm rapoartele recente conform cărora administrația Trump ia în considerare un ordin executiv care ar stabili un fel de supraveghere federală asupra noilor modele de AI. Și vom vorbi despre dacă această mișcare semnalează de fapt o schimbare semnificativă în reglementarea viitoare a acestei tehnologii.
Leah Feiger: Într-o altă întorsătură surprinzătoare a evenimentelor, vom analiza și modul în care un angajat federal care a fost concediat la începutul acestui an pentru că a filmat operatori DOGE intrând la locul său de muncă candidează acum pentru un loc în Camera Reprezentanților.
Brian Barrett: Vom lua, de asemenea, legătura cu un angajat Spirit Airlines care a fost concediat după ce compania s-a închis. Și, nu în ultimul rând, vom discuta și despre cât de îngrijorat ar trebui să fii cu privire la hantavirus. Spoiler, probabil nu la fel de îngrijorată ca Leah.
Leah Feiger: Sunt foarte îngrijorată.
Brian Barrett: Este foarte îngrijorată.
Leah Feiger: O săptămână bună, băieți.
Zoë Schiffer: OK. Deci, a fost o săptămână interesantă pentru industria AI. Luni, am auzit că administrația Trump a anunțat ceea ce, la prima vedere, pare o schimbare destul de mare în abordarea sa față de reglementarea AI. The New York Times a raportat inițial că este luat în considerare un ordin executiv, doar în această etapă acum, care ar crea un grup de directori de tehnologie și oficiali guvernamentali care ar revizui, în esență, modelele AI înainte de a fi lansate publicului. La momentul în care a fost raportat acest lucru, nu era total clar, cel puțin pentru mine, dacă ar avea doar acces la modele și ar putea să le analizeze și să le evalueze sau dacă ar putea spune dacă un model ar putea fi lansat sau nu. Dar pare o inversare destul de semnificativă a lipsei foarte lejere și accentuate de reglementare pe care administrația Trump a avut-o până acum față de industria AI.
Brian Barrett: A fost cu adevărat interesant de văzut cum, pe măsură ce modelele AI devin mai puternice, au atins un fel de limită. Cred că confruntarea Anthropic despre care am vorbit mult. Suntem într-o nouă eră de genul: „O, stai, de fapt, acest lucru ar putea fi util pentru noi sau teribil pentru noi. De fapt, trebuie să punem deoparte unele dintre aceste principii ale pieței libere și să ne dăm seama aici”. Poate că va fi ordin executiv. Simt că în trecut, acestea s-au dovedit, de obicei, a fi chestia. Simt că această administrație este destul de „scursă”. Așa că cred că este probabil să se întâmple acest lucru. Nu știu. Zoë, cum iau companiile acest lucru?
Zoë Schiffer: Este interesant, deoarece se întâmplă chiar în momentul în care o mulțime dintre aceste companii, Google, Microsoft, xAI, Anthropic, OpenAI au spus deja că vor oferi guvernului acces anticipat la modelele lor. Și, adică, cred că este destul de interesant, mai ales când ne gândim la JD Vance nu cu mult timp în urmă, spunând unui grup de autorități de reglementare din Europa că administrația va adopta o abordare foarte diferită față de administrația Biden în ceea ce privește reglementarea acestei tehnologii și că va încerca cu adevărat să nu o reglementeze.
JD Vance, audio din arhivă: Viitorul AI nu va fi câștigat prin frământări cu privire la siguranță. Va fi câștigat prin construire, de la centrale electrice fiabile până la instalațiile de producție care pot produce cipurile viitorului.
Zoë Schiffer: Așadar, chiar și posibilitatea ca acest lucru să se schimbe, cred că merită să i se acorde multă atenție.
Leah Feiger: Am fost destul de șocată de această veste pentru un guvern atât de axat pe dereglementare în acest moment. Iar administrația se mândrește foarte mult cu asta. Aceasta face parte din reclamele campaniei. Aceasta face parte din conversațiile interne cu cohorta lor de tehnologie. Este cu adevărat, facem din acesta un loc confortabil pentru a face afaceri și ar trebui să vă simțiți confortabil aici. Deci, acesta este, din nou, nu știm exact cât de detaliată va fi această reglementare sau, ghilimele, „supraveghere”, dar am fost surprinsă. Am fost surprinsă. Rareori sunt surprinsă. Am fost surprinsă.
Zoë Schiffer: Dar aceasta este întrebarea mea pentru tine. Leah, când vorbim despre cine va face parte din acest comitet de supraveghere sau cine redactează chiar această presupusă reglementare sau ordin executiv, David Sacks nu mai este în amestec, cel puțin în modul oficial în care a fost. Am înțeles că Michael Kratsios și Susie Wiles sunt cei care gestionează acum fostul său portofoliu. Sunt de genul: „Îmi pare rău, nu vreau să fiu nepoliticos”, dar sunt de genul: „Îmi spuneți că Susie Wiles este persoana care decide dacă Mythos este prea periculos pentru a fi lansat publicului? Hai”.
Brian Barrett: Expertul AI cunoscut, Susie Wiles.
Zoë Schiffer: Nu. Nu. Nu. Nu.
Leah Feiger: Iată ideea mea proastă—e ca și cum poate îmi place asta. Poate că îmi place ideea ca Susie să trebuiască să stea pe computerul ei mic spunând: „Nu înțeleg asta. Pare rău”. Ceva acolo?
Zoë Schiffer: Mm-mm.
Leah Feiger: OK.
Zoë Schiffer: Nu. Îți aud ideea și vreau să spun da și nu. Da și nu fac cu asta.
Leah Feiger: Este pe jumătate coaptă și nu sunt sigură că sunt pe deplin angajată față de ea. Dar da, un lucru este să spui că vom avea supraveghere și apoi cine sunt supraveghetorii, presupun.
Brian Barrett: Ei bine, și cred că atât de mulți oameni care în mod tradițional au minți mai calme care se află în sfera administrației Trump, care sunt experți în AI, cred că a existat o ruptură reală în jurul chestiei Anthropic Pentagon, unde au spus că această administrație a mers mult prea departe. Acest lucru este cu adevărat dăunător pentru industria AI americană și pentru progres. Așa că cred că nu veți avea acei oameni în amestec. Și dacă nu aveți acei oameni, oamenii care au rămas, cred că nu veți avea asta. Indiferent cine ar fi, cred că rămâneți fără oameni care știu de fapt multe despre ce se întâmplă și care au de fapt cele mai bune interese pe termen lung atât ale industriei, cât și ale oamenilor care ar putea fi supuși acesteia în inimă.
Leah Feiger: Mă întreb, de asemenea, cât de mult din asta este un joc pentru a putea spune: „Uite, facem asta”. Pentru că există doar o îngrijorare publică tot mai mare, indiferent cum o analizați, cu privire la AI care amenință locurile de muncă, prețurile la energie, confidențialitatea, sănătatea mintală, ce vreți. Acest lucru este în știri chiar acum într-un mod foarte mare. Și dacă administrația Trump poate chiar să spună ușor: „OK, OK, OK, vă auzim. Nu vă faceți griji. O avem pe Susie Wiles la caz”.

