Anthropic susține proiectul de lege californian privind siguranța IA, SB 53
Luni, Anthropic a anunțat o susținere oficială a SB 53, un proiect de lege californian al senatorului statului Scott Wiener, care ar impune cerințe de transparență, primele de acest fel în națiune, asupra celor mai mari dezvoltatori de modele IA din lume.
Susținerea Anthropic marchează o victorie rară și majoră pentru SB 53, într-un moment în care grupuri tehnologice majore, cum ar fi CTA și Chamber for Progress, fac lobby împotriva proiectului de lege.
"Deși credem că siguranța frontierelor IA este cel mai bine abordată la nivel federal, în loc de un mozaic de reglementări de stat, progresele puternice ale IA nu vor aștepta consensul de la Washington", a declarat Anthropic într-o postare pe blog. "Întrebarea nu este dacă avem nevoie de guvernare IA - este dacă o vom dezvolta cu atenție astăzi sau reactiv mâine. SB 53 oferă o cale solidă către prima variantă."
Dacă este adoptată, SB 53 ar obliga dezvoltatorii de modele IA de frontieră, cum ar fi OpenAI, Anthropic, Google și xAI, să dezvolte cadre de siguranță, precum și să publice rapoarte publice de siguranță și securitate înainte de a implementa modele IA puternice. Proiectul de lege ar stabili, de asemenea, protecții pentru avertizorii de integritate pentru angajații care raportează preocupări de siguranță.
Proiectul de lege al senatorului Wiener se concentrează în mod specific pe limitarea modelelor IA de la a contribui la "riscuri catastrofale", pe care proiectul de lege le definește ca fiind moartea a cel puțin 50 de persoane sau daune de peste un miliard de dolari. SB 53 se concentrează pe partea extremă a riscului IA - limitând modelele IA de a fi utilizate pentru a oferi asistență la nivel de expert în crearea de arme biologice sau pentru a fi utilizate în atacuri cibernetice - mai degrabă decât pe preocupări pe termen mai scurt, cum ar fi deepfake-urile IA sau sicofranția.
Senatul Californiei a aprobat o versiune anterioară a SB 53, dar încă trebuie să organizeze un vot final asupra proiectului de lege înainte ca acesta să poată avansa pe biroul guvernatorului. Guvernatorul Gavin Newsom a păstrat tăcerea cu privire la proiectul de lege până acum, deși a respins prin veto ultimul proiect de lege privind siguranța IA al senatorului Weiner, SB 1047.
Proiectele de lege care reglementează dezvoltatorii de modele IA de frontieră s-au confruntat cu o rezistență semnificativă atât din Silicon Valley, cât și din administrația Trump, care ambele susțin că astfel de eforturi ar putea limita inovația Americii în cursa împotriva Chinei. Investitori precum Andreessen Horowitz și Y Combinator au condus o parte din rezistența împotriva SB 1047, iar în ultimele luni, administrația Trump a amenințat în mod repetat că va bloca statele să adopte în totalitate reglementări IA.
Unul dintre cele mai comune argumente împotriva proiectelor de lege privind siguranța IA este că statele ar trebui să lase problema pe seama guvernelor federale. Șeful politicii IA de la Andreessen Horowitz, Matt Perault, și Directorul Juridic, Jai Ramaswamy, au publicat o postare pe blog săptămâna trecută susținând că multe dintre proiectele de lege IA de stat de astăzi riscă să încalce Clauza de Comerț a Constituției - care limitează guvernele statelor de la adoptarea de legi care depășesc granițele lor și afectează comerțul interstatal.
Cu toate acestea, co-fondatorul Anthropic, Jack Clark, susține într-o postare pe X că industria tehnologică va construi sisteme IA puternice în următorii ani și nu poate aștepta ca guvernul federal să acționeze.
"Am spus de mult timp că am prefera un standard federal", a spus Clark. "Dar în absența acestuia, aceasta creează un plan solid pentru guvernarea IA, care nu poate fi ignorat."
Directorul Afacerilor Globale de la OpenAI, Chris Lehane, a trimis o scrisoare guvernatorului Newsom în august, susținând că acesta nu ar trebui să adopte nicio reglementare IA care ar împinge startup-urile din California - deși scrisoarea nu a menționat SB 53 pe nume. Fostul șef al cercetării de politică de la OpenAI, Miles Brundage, a spus într-o postare pe X că scrisoarea lui Lehane este "plin[ă] de gunoi înșelător despre SB 53 și politica IA în general."
În mod notabil, SB 53 își propune să reglementeze exclusiv cele mai mari companii IA din lume - în special cele care au generat venituri brute de peste 500 de milioane de dolari.
În ciuda criticilor, experții în politici spun că SB 53 este o abordare mai modestă decât proiectele de lege anterioare privind siguranța IA. Dean Ball, Senior Fellow la Fundația pentru Inovație Americană și fost consilier de politică IA la Casa Albă, a declarat într-o postare pe blog din august că el crede că SB 53 are acum șanse bune de a deveni lege. Ball, care a criticat SB 1047, a spus că autorii SB 53 au "arătat respect pentru realitatea tehnică", precum și o "măsură de reținere legislativă."
Senatorul Wiener a declarat anterior că SB 53 a fost puternic influențat de un grup de experți politici convocat de guvernatorul Newsom - co-condus de cercetătorul de top de la Stanford și co-fondatorul World Labs, Fei-Fei Li - pentru a consilia California cu privire la modul de reglementare a IA.
Majoritatea laboratoarelor IA au deja o versiune a politicii interne de siguranță pe care o cere SB 53. OpenAI, Google DeepMind și Anthropic publică în mod regulat rapoarte de siguranță pentru modelele lor. Cu toate acestea, aceste companii nu sunt obligate de nimeni, ci doar de ele însele, să facă acest lucru, și uneori rămân în urmă cu angajamentele lor de siguranță auto-impuse. SB 53 își propune să stabilească aceste cerințe ca lege de stat, cu repercusiuni financiare dacă un laborator IA nu se conformează.
La începutul lunii septembrie, parlamentarii californieni au modificat SB 53 pentru a elimina o secțiune a proiectului de lege care ar fi cerut dezvoltatorilor de modele IA să fie auditați de terți. Companiile tehnologice s-au luptat cu aceste tipuri de audituri terțe în bătălii de politică IA anterioare, susținând că sunt excesiv de împovărătoare.