Cash News Logo

OpenAI susține o lege care ar limita răspunderea pentru decese în masă sau dezastre financiare cauzate de inteligența artificială

Tech & AI10 aprilie 2026, 03:19
OpenAI susține o lege care ar limita răspunderea pentru decese în masă sau dezastre financiare cauzate de inteligența artificială

OpenAI își oferă sprijinul pentru un proiect de lege din Illinois care ar proteja laboratoarele de inteligență artificială de răspundere în cazurile în care modelele AI sunt utilizate pentru a provoca daune sociale grave, cum ar fi decesul sau vătămarea gravă a 100 sau mai mulți oameni sau cel puțin 1 miliard de dolari în daune materiale.

Această acțiune pare să marcheze o schimbare în strategia legislativă a OpenAI. Până acum, OpenAI a jucat în mare parte defensiv, opunându-se proiectelor de lege care ar fi putut face laboratoarele AI răspunzătoare pentru daunele provocate de tehnologia lor. Mai mulți experți în politici AI au declarat pentru WIRED că SB 3444 – care ar putea stabili un nou standard pentru industrie – este o măsură mai extremă decât proiectele de lege pe care OpenAI le-a susținut în trecut.

Proiectul de lege ar proteja dezvoltatorii AI de frontieră de răspundere pentru „daune critice” cauzate de modelele lor de frontieră, atâta timp cât nu au provocat intenționat sau din neglijență un astfel de incident și au publicat rapoarte de siguranță, securitate și transparență pe site-ul lor web. Acesta definește un model de frontieră ca fiind orice model AI antrenat folosind peste 100 de milioane de dolari în costuri de calcul, ceea ce ar putea fi aplicabil celor mai mari laboratoare AI din America, precum OpenAI, Google, xAI, Anthropic și Meta.

„Sprijinim astfel de abordări, deoarece se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave de la cele mai avansate sisteme AI, permițând în același timp acestei tehnologii să ajungă în mâinile oamenilor și ale întreprinderilor – mici și mari – din Illinois”, a declarat purtătorul de cuvânt al OpenAI, Jamie Radice, într-o declarație trimisă prin e-mail. „De asemenea, ajută la evitarea unui mozaic de reguli de la stat la stat și se îndreaptă către standarde naționale mai clare și mai coerente.”

Conform definiției sale privind daunele critice, proiectul de lege enumeră câteva domenii de interes comune pentru industria AI, cum ar fi un actor rău intenționat care folosește AI pentru a crea o armă chimică, biologică, radiologică sau nucleară. Dacă un model AI se angajează singur într-o conduită care, dacă ar fi comisă de un om, ar constitui o infracțiune penală și ar duce la aceste rezultate extreme, aceasta ar fi, de asemenea, o daună critică. Dacă un model AI ar comite oricare dintre aceste acțiuni în conformitate cu SB 3444, laboratorul AI din spatele modelului nu ar putea fi tras la răspundere, atâta timp cât nu a fost intenționat și și-au publicat rapoartele.

Legislaturile federale și de stat din SUA nu au adoptat încă nicio lege care să determine în mod specific dacă dezvoltatorii de modele AI, cum ar fi OpenAI, ar putea fi răspunzători pentru aceste tipuri de daune cauzate de tehnologia lor. Dar, pe măsură ce laboratoarele AI continuă să lanseze modele AI mai puternice, care ridică noi provocări de siguranță și securitate cibernetică, cum ar fi Claude Mythos de la Anthropic, aceste întrebări par din ce în ce mai presimțitoare.

În mărturia sa de susținere a SB 3444, un membru al echipei Afaceri Globale a OpenAI, Caitlin Niedermeyer, a argumentat, de asemenea, în favoarea unui cadru federal pentru reglementarea AI. Niedermeyer a transmis un mesaj care este în concordanță cu represiunea administrației Trump asupra legilor de stat privind siguranța AI, afirmând că este important să se evite „un mozaic de cerințe de stat inconsistente care ar putea crea fricțiuni fără a îmbunătăți semnificativ siguranța”. Acest lucru este, de asemenea, în concordanță cu viziunea mai largă a Silicon Valley în ultimii ani, care a susținut în general că este primordial ca legislația AI să nu împiedice poziția Americii în cursa globală a AI. Deși SB 3444 este în sine o lege de siguranță la nivel de stat, Niedermeyer a argumentat că acestea pot fi eficiente dacă „consolidează o cale către armonizarea cu sistemele federale”.

„La OpenAI, credem că Steaua Nordului pentru reglementarea frontierelor ar trebui să fie implementarea sigură a celor mai avansate modele într-un mod care să păstreze, de asemenea, leadership-ul SUA în inovare”, a spus Niedermeyer.

Scott Wisor, director de politici pentru proiectul Secure AI, a declarat pentru WIRED că crede că acest proiect de lege are șanse mici de a fi adoptat, având în vedere reputația Illinois de a reglementa agresiv tehnologia. „Am sondat oamenii din Illinois, întrebându-i dacă cred că companiile AI ar trebui să fie scutite de răspundere, iar 90% dintre oameni se opun. Nu există niciun motiv pentru care companiile AI existente ar trebui să se confrunte cu o răspundere redusă”, spune Wisor. El menționează că legiuitorii din Illinois au depus, de asemenea, proiecte de lege care sporesc răspunderea dezvoltatorilor de modele AI. În august anul trecut, statul a devenit primul din țară care a adoptat o legislație care limitează utilizarea AI în serviciile de sănătate mintală. Illinois a fost, de asemenea, printre primii care au reglementat colectarea de date biometrice, adoptând Legea privind confidențialitatea informațiilor biometrice în 2008.

În timp ce SB 3444 se concentrează pe evenimente cu victime în masă și dezastre financiare mari, laboratoarele AI se confruntă, de asemenea, cu o întrebare cu privire la daunele pe care modelele lor AI le pot provoca la nivel individual. Mai mulți membri ai familiilor copiilor care au murit prin sinucidere după ce se presupune că au dezvoltat relații nesănătoase cu ChatGPT au dat în judecată OpenAI în ultimul an.

Legislația federală AI pe care Niedermeyer o susține în mărturia sa rămâne un obiectiv evaziv pentru Congres. În timp ce administrația Trump a emis ordine executive și a publicat cadre într-o încercare de a cataliza o anumită legislație federală AI, discuțiile despre adoptarea efectivă a unei astfel de măsuri par să nu ducă nicăieri. În absența îndrumărilor federale, statele, inclusiv California și New York, au adoptat proiecte de lege, cum ar fi SB 53 și Raise Act, care impun dezvoltatorilor de modele AI să prezinte rapoarte de siguranță și transparență.

La ani de la boom-ul AI, există încă o întrebare juridică deschisă cu privire la ceea ce se întâmplă dacă un model AI provoacă un eveniment catastrofal.