Silicon Valley intimidează promotorii siguranței IA
Lideri din Silicon Valley, inclusiv David Sacks, expert AI și cripto de la Casa Albă, și Jason Kwon, directorul de strategie al OpenAI, au stârnit controverse online săptămâna aceasta din cauza comentariilor lor despre grupurile care promovează siguranța IA. În cazuri separate, ei au afirmat că anumiți susținători ai siguranței IA nu sunt atât de virtuoși pe cât par și că acționează fie în interesul propriu, fie pentru marionetele miliardare din culise.
Grupurile de siguranță IA care au discutat cu TechCrunch spun că acuzațiile lui Sacks și OpenAI sunt cea mai recentă încercare a Silicon Valley de a-și intimida criticii, dar cu siguranță nu prima. În 2024, unele firme de capital de risc au răspândit zvonuri că un proiect de lege din California privind siguranța IA, SB 1047, ar trimite fondatorii de startup-uri la închisoare. Brookings Institution a etichetat zvonul drept una dintre multele „denaturări” ale proiectului de lege, dar guvernatorul Gavin Newsom l-a respins în cele din urmă.
Indiferent dacă Sacks și OpenAI au intenționat sau nu să intimideze criticii, acțiunile lor au speriat suficient de mult mai mulți susținători ai siguranței IA. Mulți lideri ai organizațiilor non-profit contactați de TechCrunch în ultima săptămână au cerut să vorbească sub anonimat pentru a-și proteja grupurile de represalii.
Controversa subliniază tensiunea tot mai mare din Silicon Valley între construirea IA în mod responsabil și construirea acesteia ca un produs de consum masiv - o temă pe care colegii mei Kirsten Korosec, Anthony Ha și cu mine o analizăm în podcastul Equity din această săptămână. De asemenea, analizăm o nouă lege privind siguranța IA adoptată în California pentru a reglementa chatbot-urile și abordarea OpenAI față de conținutul erotic în ChatGPT.
Marți, Sacks a scris o postare pe X în care susține că Anthropic - care și-a exprimat îngrijorări cu privire la capacitatea IA de a contribui la șomaj, atacuri cibernetice și daune catastrofale aduse societății - pur și simplu alarmistă pentru a adopta legi care o vor avantaja și vor sufoca startup-urile mai mici cu formalități administrative. Anthropic a fost singurul laborator major de IA care a susținut proiectul de lege Senatului Californiei 53 (SB 53), un proiect de lege care stabilește cerințe de raportare a siguranței pentru companiile mari de IA, care a fost promulgat luna trecută.
Sacks a răspuns unui eseu viral al co-fondatorului Anthropic, Jack Clark, despre temerile sale cu privire la IA. Clark a prezentat eseul ca un discurs la conferința Curve AI safety din Berkeley cu câteva săptămâni mai devreme. Așezat în public, s-a simțit cu siguranță ca o relatare autentică a rezervelor unui tehnolog cu privire la produsele sale, dar Sacks nu a văzut-o așa.
Sacks a spus că Anthropic conduce o „strategie sofisticată de captare a reglementărilor”, deși merită menționat că o strategie cu adevărat sofisticată probabil că nu ar implica transformarea guvernului federal într-un dușman. Într-o postare ulterioară pe X, Sacks a remarcat că Anthropic s-a poziționat „în mod constant ca un adversar al administrației Trump”.
De asemenea, săptămâna aceasta, directorul de strategie al OpenAI, Jason Kwon, a scris o postare pe X explicând de ce compania trimite citații organizațiilor non-profit pentru siguranța IA, cum ar fi Encode, o organizație non-profit care susține o politică responsabilă în domeniul IA. (O citație este un ordin legal care solicită documente sau mărturii.) Kwon a spus că, după ce Elon Musk a dat în judecată OpenAI - din cauza preocupărilor că producătorul ChatGPT s-a îndepărtat de misiunea sa non-profit - OpenAI a considerat suspect modul în care mai multe organizații s-au opus restructurării sale. Encode a depus un memoriu amicus în sprijinul procesului lui Musk, iar alte organizații non-profit s-au pronunțat public împotriva restructurării OpenAI.
„Acest lucru a ridicat întrebări de transparență cu privire la cine le finanțează și dacă a existat vreo coordonare”, a spus Kwon. NBC News a raportat săptămâna aceasta că OpenAI a trimis citații largi către Encode și alte șase organizații non-profit care au criticat compania, solicitând comunicările lor legate de doi dintre cei mai mari oponenți ai OpenAI, Musk și CEO-ul Meta, Mark Zuckerberg. OpenAI a solicitat, de asemenea, Encode comunicări legate de sprijinul său pentru SB 53.
Un lider proeminent în domeniul siguranței IA a declarat pentru TechCrunch că există o ruptură tot mai mare între echipa de afaceri guvernamentale a OpenAI și organizația sa de cercetare. În timp ce cercetătorii în siguranță ai OpenAI publică frecvent rapoarte care dezvăluie riscurile sistemelor IA, unitatea de politici a OpenAI a făcut lobby împotriva SB 53, spunând că ar prefera să aibă reguli uniforme la nivel federal.
Șeful departamentului de aliniere a misiunii OpenAI, Joshua Achiam, a vorbit despre trimiterea de citații de către compania sa către organizațiile non-profit într-o postare pe X săptămâna aceasta. „Cu riscul posibil al întregii mele cariere, voi spune: asta nu pare grozav”, a spus Achiam.
Brendan Steinhauser, CEO-ul organizației non-profit pentru siguranța IA, Alliance for Secure AI (care nu a fost citată de OpenAI), a declarat pentru TechCrunch că OpenAI pare convinsă că criticii săi fac parte dintr-o conspirație condusă de Musk. Cu toate acestea, el susține că nu este cazul și că o mare parte a comunității de siguranță IA este destul de critică față de practicile de siguranță ale xAI sau de lipsa acestora.
„Din partea OpenAI, acest lucru are menirea de a reduce la tăcere criticii, de a-i intimida și de a descuraja alte organizații non-profit să facă același lucru”, a spus Steinhauser. „În ceea ce-l privește pe Sacks, cred că este îngrijorat că mișcarea [siguranța IA] este în creștere și că oamenii doresc să tragă aceste companii la răspundere.”
Sriram Krishnan, consilierul politic principal al Casei Albe pentru IA și fost partener general a16z, a intervenit în conversație săptămâna aceasta cu o postare pe rețelele de socializare, numind promotorii siguranței IA rupți de realitate. El a îndemnat organizațiile de siguranță IA să vorbească cu „oameni din lumea reală care folosesc, vând, adoptă IA în casele și organizațiile lor”.
Un studiu recent Pew a constatat că aproximativ jumătate dintre americani sunt mai îngrijorați decât încântați de IA, dar nu este clar ce îi îngrijorează exact. Un alt studiu recent a intrat în mai multe detalii și a constatat că alegătorilor americani le pasă mai mult de pierderile de locuri de muncă și de deepfake-uri decât de riscurile catastrofale cauzate de IA, pe care se concentrează în mare parte mișcarea de siguranță IA. Abordarea acestor preocupări legate de siguranță ar putea avea loc în detrimentul creșterii rapide a industriei IA - un compromis care îngrijorează mulți oameni din Silicon Valley.
Cu investițiile în IA susținând o mare parte a economiei americane, teama de suprareglementare este de înțeles. Dar, după ani de progrese nereglementate în IA, mișcarea de siguranță IA pare să câștige un impuls real în perspectiva anului 2026. Încercările Silicon Valley de a lupta împotriva grupurilor axate pe siguranță pot fi un semn că acestea funcționează.