Videoclipuri Deepfake Mai Realiste Ca Niciodată. Cum Depistăm Realitatea Sau Sora AI?
Este dificil să ne dăm seama dacă un videoclip este realizat cu aplicația Sora de la OpenAI, dar există câteva indicii vizuale.
Katelyn Chedraoui Scriitoare Katelyn este scriitoare la CNET, unde acoperă inteligența artificială, inclusiv chatbot-uri, generatoare de imagini și videoclipuri. Munca ei explorează modul în care noua tehnologie AI se infiltrează în viețile noastre, modelând conținutul pe care îl consumăm pe rețelele sociale și afectând oamenii din spatele ecranelor. A absolvit Universitatea din Carolina de Nord la Chapel Hill cu o diplomă în media și jurnalism. O puteți contacta la kchedraoui@cnet.com. Expertiză: inteligență artificială, generatoare de imagini AI, platforme de social media
Katelyn Chedraoui 29 octombrie 2025, 9:30 a.m. PT 5 minute de citire
Videoclipurile generate de AI sunt peste tot, de la deepfake-uri cu celebrități și transmisiuni false despre dezastre, până la videoclipuri virale cu iepuri pe o trambulină. Sora, generatorul video AI de la compania mamă a ChatGPT, OpenAI, a făcut și mai dificilă separarea adevărului de ficțiune. Și modelul Sora 2, o aplicație social media nou-nouță, devine din ce în ce mai sofisticat pe zi ce trece. În ultimele luni, aplicația asemănătoare TikTok a devenit virală, entuziaștii AI fiind hotărâți să vâneze coduri de invitație.
Dar Sora nu este ca orice altă platformă social media. Tot ce vezi pe Sora este fals, iar toate videoclipurile sunt generate de AI. Am descris-o ca pe un vis febril deepfake AI, inofensiv la prima vedere, cu riscuri periculoase care se ascund chiar sub suprafață.
Din punct de vedere tehnic, videoclipurile Sora sunt impresionante comparativ cu concurenții precum Midjourney's V1 și Google's Veo 3. Au rezoluție înaltă, audio sincronizat și creativitate surprinzătoare. Cea mai populară funcție a lui Sora, numită „cameo”, vă permite să folosiți asemănarea altor persoane și să le introduceți în aproape orice scenă generată de AI. Este un instrument impresionant, rezultând videoclipuri înfricoșător de realiste.
De aceea, atât de mulți experți sunt îngrijorați de Sora. Aplicația face mai ușor pentru oricine să creeze deepfake-uri periculoase, să răspândească dezinformarea și să estompeze linia dintre ceea ce este real și ceea ce nu este. Figurile publice și celebritățile sunt deosebit de vulnerabile la aceste deepfake-uri, iar sindicate precum SAG-AFTRA au făcut presiuni asupra OpenAI pentru a-și consolida măsurile de protecție.
Identificarea conținutului AI este o provocare continuă pentru companiile de tehnologie, platformele de social media și toți ceilalți. Dar nu este total lipsit de speranță. Iată câteva lucruri de care trebuie să fii atent pentru a determina dacă un videoclip a fost realizat folosind Sora.
**Căutați filigranul Sora**
Fiecare videoclip realizat în aplicația Sora iOS include un filigran atunci când îl descărcați. Este sigla albă Sora - o pictogramă nor - care sare în jurul marginilor videoclipului. Este similar cu modul în care videoclipurile TikTok sunt filigranate.
Filigranarea conținutului este una dintre cele mai importante modalități prin care companiile de inteligență artificială ne pot ajuta vizual să identificăm conținutul generat de AI. Modelul „nano banana” Gemini de la Google, de exemplu, își filigranează automat imaginile.
Filigranele sunt grozave, deoarece servesc drept semn clar că conținutul a fost creat cu ajutorul AI. Dar filigranele nu sunt perfecte. În primul rând, dacă filigranul este static (nu se mișcă), poate fi decupat cu ușurință. Chiar și pentru filigranele în mișcare, cum ar fi cele de la Sora, există aplicații concepute special pentru a le elimina, astfel încât filigranele singure nu pot fi pe deplin de încredere.
Când CEO-ul OpenAI, Sam Altman, a fost întrebat despre acest lucru, el a spus că societatea va trebui să se adapteze la o lume în care oricine poate crea videoclipuri false cu oricine. Desigur, înainte de Sora de la OpenAI, nu exista o modalitate populară, ușor accesibilă, fără a fi nevoie de abilități, de a face acele videoclipuri. Dar argumentul său ridică un punct valid cu privire la necesitatea de a ne baza pe alte metode pentru a verifica autenticitatea.
**Verificați metadatele**
Știu, probabil te gândești că nu ai cum să verifici metadatele unui videoclip pentru a determina dacă este real. Înțeleg de unde vii; este un pas suplimentar și s-ar putea să nu știi de unde să începi. Dar este o modalitate excelentă de a determina dacă un videoclip a fost realizat cu Sora și este mai ușor de făcut decât crezi.
Metadatele sunt o colecție de informații atașate automat unei bucăți de conținut atunci când este creat. Vă oferă mai multe informații despre modul în care a fost creată o imagine sau un videoclip. Poate include tipul de cameră utilizată pentru a face o fotografie, locația, data și ora la care a fost capturat un videoclip și numele fișierului.
Fiecare fotografie și videoclip are metadate, indiferent dacă a fost creat de om sau de AI. Și o mulțime de conținut creat de AI va avea, de asemenea, credențiale de conținut care denotă originile sale AI. OpenAI face parte din Coaliția pentru proveniența și autenticitatea conținutului, ceea ce, pentru dumneavoastră, înseamnă că videoclipurile Sora includ metadate C2PA.
Puteți utiliza instrumentul de verificare al Content Authenticity Initiative pentru a verifica metadatele unui videoclip, imagine sau document. Iată cum. (Content Authenticity Initiative face parte din C2PA.)
**Cum să verificați metadatele unei fotografii, videoclip sau document:**
1. Navigați la acest URL: https://verify.contentauthenticity.org/ 2. Încărcați fișierul pe care doriți să îl verificați. 3. Faceți clic pe Deschideți. 4. Verificați informațiile din panoul din partea dreaptă. Dacă este generat de AI, ar trebui să includă acest lucru în secțiunea rezumatului conținutului.
Când rulați un videoclip Sora prin acest instrument, acesta va spune că videoclipul a fost „emis de OpenAI” și va include faptul că este generat de AI. Toate videoclipurile Sora ar trebui să conțină aceste acreditări care vă permit să confirmați că a fost creat cu Sora.
Acest instrument, ca toți detectoarele AI, nu este perfect. Există multe moduri în care videoclipurile AI pot evita detectarea. Dacă aveți alte videoclipuri non-Sora, este posibil să nu conțină semnalele necesare în metadate pentru ca instrumentul să determine dacă sunt sau nu create de AI. Videoclipurile AI realizate cu Midjourney, de exemplu, nu sunt semnalizate, așa cum am confirmat în testarea mea. Chiar dacă videoclipul a fost creat de Sora, dar apoi rulat printr-o aplicație terță parte (cum ar fi una de eliminare a filigranelor) și re-descărcat, acest lucru face mai puțin probabil ca instrumentul să îl semnalizeze ca AI.
**Căutați alte etichete AI și includeți-le pe ale dvs.**
Dacă vă aflați pe una dintre platformele de social media ale Meta, cum ar fi Instagram sau Facebook, este posibil să primiți un mic ajutor pentru a determina dacă ceva este AI. Meta are sisteme interne în vigoare pentru a ajuta la semnalizarea conținutului AI și la etichetarea acestuia ca atare. Aceste sisteme nu sunt perfecte, dar puteți vedea clar eticheta pentru postările care au fost semnalizate. TikTok și YouTube au politici similare pentru etichetarea conținutului AI.
Singura modalitate cu adevărat fiabilă de a ști dacă ceva este generat de AI este dacă creatorul dezvăluie acest lucru. Multe platforme de social media oferă acum setări care le permit utilizatorilor să își eticheteze postările ca fiind generate de AI. Chiar și un credit sau o dezvăluire simplă în legenda dvs. poate contribui mult la a ajuta pe toată lumea să înțeleagă modul în care a fost creat ceva.
Știți în timp ce defilați pe Sora că nimic nu este real. Dar odată ce părăsiți aplicația și partajați videoclipuri generate de AI, este responsabilitatea noastră colectivă să dezvăluim modul în care a fost creat un videoclip. Pe măsură ce modelele AI precum Sora continuă să estompeze linia dintre realitate și AI, depinde de noi toți să facem cât mai clar posibil când ceva este real sau AI.
**Cel mai important, rămâneți vigilenți**
Nu există o metodă infailibilă pentru a spune cu precizie dintr-o singură privire dacă un videoclip este real sau AI. Cel mai bun lucru pe care îl puteți face pentru a vă împiedica să fiți înșelat este să nu credeți automat și neîndoielnic tot ce vedeți online.
Urmați-vă instinctul - dacă ceva se simte ireal, probabil că este. În aceste vremuri fără precedent, pline de AI, cea mai bună apărare este să inspectați mai atent videoclipurile pe care le vizionați. Nu doar aruncați o privire rapidă și defilați fără să vă gândiți. Verificați dacă există text mutilat, obiecte care dispar și mișcări care sfidează fizica. Și nu vă învinovățiți dacă sunteți păcălit ocazional; chiar și experții greșesc.
(Dezvăluire: Ziff Davis, compania mamă a CNET, a intentat în aprilie un proces împotriva OpenAI, susținând că a încălcat drepturile de autor ale Ziff Davis în formarea și operarea sistemelor sale AI.)

