Cash News Logo

Cum a distrus Internetul detectoarele de minciuni

Tech & AI11 aprilie 2026, 12:30
Cum a distrus Internetul detectoarele de minciuni

Cum a distrus Internetul detectoarele de minciuni.

De la imagini generate de AI la date satelitare restricționate, sistemele utilizate pentru a verifica ce este real online se luptă să țină pasul.

Videoclipurile de propagandă în stil Lego care pretind crime de război inundă fluxurile online, ecoulând propria transformare a Casei Albe în clipuri teaser criptice și imagini native meme. Aceasta nu este doar o derivă de conținut. Este un nou front în războiul informațional, unul în care viteza, ambiguitatea și acoperirea algoritmică contează la fel de mult ca acuratețea. O agenție legată de Iran, Explosive News, poate realiza un segment sintetic Lego de două minute în aproximativ 24 de ore. Viteza este esențială. Media sintetică nu trebuie să reziste pentru totdeauna; trebuie doar să circule înainte ca verificarea să ajungă din urmă.

Luna trecută, Casa Albă a sporit confuzia atunci când a postat două videoclipuri vagi „lansare în curând”, apoi le-a eliminat după ce investigatorii online și cercetătorii open source au început să le analizeze. Dezvăluirea s-a dovedit a fi anticlimactică: o promovare a aplicației oficiale a Casei Albe. Dar episodul a demonstrat cât de bine a absorbit comunicarea oficială estetica scurgerilor, a viralității și a intrigii native platformei. Chiar și atunci când conturile oficiale adoptă estetica unei scurgeri, a pune sub semnul întrebării dacă o înregistrare este reală sau sintetică este singura mișcare defensivă rămasă.

Real vs. Sintetic: Noua Fricțiune

O amprentă digitală zero obișnuia să semnaleze autenticitatea. Acum, poate semnala opusul. Absența unei urme nu mai înseamnă că ceva este original - poate însemna că nu a fost niciodată capturat de un obiectiv. Semnalul s-a inversat. Adevărul rămâne în urmă; implicarea conduce. Traficul automatizat comandă acum aproximativ 51% din activitatea de pe internet, crescând de opt ori mai repede decât traficul uman, conform Raportului de referință privind starea AI Traffic & Cyberthreat 2026. Aceste sisteme nu doar distribuie conținut, ci prioritizează viralitatea de calitate scăzută, asigurând că înregistrarea sintetică circulă în timp ce verificarea încă ajunge din urmă.

Investigatorii open source încă țin linia, dar luptă într-un război de volum. Ascensiunea „super-partajatorilor” hiperactivi, adesea susținuți de verificări plătite, adaugă un strat de falsă autoritate pe care inteligența open source (OSINT) tradițională trebuie acum să îl navigheze. „Suntem mereu în urmă cu cineva care apasă repost fără să se gândească de două ori”, spune Maryam Ishani, o jurnalistă OSINT care acoperă conflictul. „Algoritmul prioritizează acel reflex, iar informațiile noastre vor fi întotdeauna cu un pas în urmă.”

În același timp, creșterea conturilor de monitorizare a războiului începe să interfereze cu raportarea în sine. Manisha Ganguly, șeful criminalistic vizual la The Guardian și specialist OSINT care investighează crime de război, indică falsa certitudine creată de potopul de conținut agregat pe Telegram și X. „Verificarea open source începe să creeze o falsă certitudine atunci când încetează să mai fie o metodă de investigare - prin părtinire de confirmare sau când OSINT este folosit pentru a valida cosmetic conturile oficiale sau aplicat greșit cu bună știință pentru a se alinia cu narațiuni ideologice, mai degrabă decât pentru a le interoga”, spune Ganguly.

În timp ce se întâmplă acest lucru, setul de instrumente de verificare în sine devine mai greu de accesat. Pe 4 aprilie, Planet Labs - unul dintre cei mai de încredere furnizori comerciali de sateliți pentru jurnalismul de conflict - a anunțat că va reține pe termen nelimitat imaginile cu Iranul și zona mai largă de conflict din Orientul Mijlociu, retroactiv până la 9 martie, în urma unei solicitări din partea guvernului SUA. Răspunsul secretarului american al apărării Pete Hegseth la preocupările legate de întârziere a fost fără echivoc: „Open source nu este locul potrivit pentru a determina ce s-a întâmplat sau nu.”

Această schimbare contează. Atunci când accesul la dovezi vizuale primare este restricționat, capacitatea de a verifica independent evenimentele se restrânge. Și în acest decalaj de restrângere, altceva se extinde: AI generativă nu doar umple tăcerea - concurează pentru a defini ceea ce se vede în primul rând.

AI Generativă Devine Mai Greu de Observat

Platformele AI generative au învățat din greșelile lor. Henk van Ess, un antrenor de investigații și specialist în verificare, spune că multe dintre semnele clasice - număr incorect de degete, semne de protest distorsionate, text distorsionat - au fost în mare măsură corectate în cea mai recentă generație de modele. Instrumente precum Imagen 3, Midjourney și Dall·E s-au îmbunătățit în ceea ce privește înțelegerea solicitărilor, fotorealismul și redarea textului în imagine. Dar problema mai dificilă este ceea ce van Ess numește hibridul.

În aceste cazuri, 95% dintr-o imagine este o fotografie reală: metadate reale, zgomot real al senzorului, fizica reală a iluminării. Manipularea se află într-un singur detaliu - un petic adăugat la o uniformă, o armă plasată într-o mână, o față schimbată subtil. Detectoarele la nivel de pixeli adesea o elimină, deoarece scanează ceea ce este, în majoritatea aspectelor, o imagine autentică. Falsul poate fi un centimetru pătrat. „Fiecare metodă veche presupunea că imaginea este o înregistrare a ceva”, spune van Ess. „Media generativă rupe această presupunere la rădăcină.”

Henry Ajder, un cercetător deepfake și consilier AI care urmărește media sintetică din 2018, merge mai departe. AI nu mai este evidentă, spune el, este încorporată. Volumul de conținut sintetic de înaltă calitate care circulă acum online înseamnă că era erorilor vizibile se apropie de sfârșit. Ceea ce o înlocuiește este conținutul care arată complet credibil. Instrumentele construite pentru a-l detecta au propriile limite.

Sistemele de detectare nu sunt motoare de adevăr, spune Ajder. Chiar și cele mai puternice instrumente eșuează suficient de des pentru a conta, iar majoritatea returnează un scor de încredere fără a explica modul în care s-a ajuns la acel scor. „Instrumentele de detectare nu ar trebui niciodată folosite ca un singur semnal pentru a determina acțiunea”, spune Ajder. Această infrastructură nu există încă la scară largă. Până când nu va exista, povara se mută în altă parte - asupra oamenilor care consumă imaginile în primul rând.

Cum să Verificați

Van Ess o împarte în cinci pași pe care oricine îi poate aplica - nu ca garanții, ci ca modalități de a încetini răspândirea.

Caută Hollywood. Dacă o imagine pare prea cinematografică - prea dramatică, prea uniform iluminată, prea compusă - acesta este un semnal. Catastrofele reale sunt rareori simetrice. Dacă toată lumea arată gata pentru prim-planul lor, acesta este primul tău semn.

Efectuează mai multe căutări inverse de imagini. Google Lens, Yandex și TinEye afișează fiecare rezultate diferite. O lipsă de potriviri nu mai demonstrează originalitatea. Poate însemna că imaginea nu a fost niciodată fotografiată.

Mărește marginile. Nu punctul de reper, ci indicatorul de parcare, capacul de canal, unghiul umbrei. Aceste detalii periferice sunt adesea locul unde apar inconsecvențe - părțile pentru care nimeni care generează un fals nu este plătit pentru a le perfecționa.

Tratează instrumentele de detectare ca pe solicitări, nu ca pe verdicte. Un scor procentual fără explicații nu este o dovadă. Instrumentele care arată unde a apărut prima dată o imagine sau dacă există în bazele de date ale verificatorilor de fapte sunt mai utile decât o singură evaluare de încredere. ImageWhisperer este un instrument gratuit care combină aceste semnale.

Găsește „pacientul zero”. Urmărește imaginea până la cea mai timpurie apariție a sa. Materialul autentic ajunge de obicei atașat unei persoane - un martor, un fotograf, o locație. Conținutul sintetic apare adesea fără fricțiuni: anonim, lustruit și deja formatat pentru partajare.

Ajder, care a consiliat companii precum Adobe și Synthesia, susține că soluția pe termen lung nu este doar o detectare mai bună, ci și proveniența - sisteme care pot verifica originea, mai degrabă decât să urmărească la nesfârșit ceea ce este fals. Până când această infrastructură nu există la scară largă, povara nu dispare - se mută. Într-un sistem în care conținutul sintetic se mișcă mai repede decât poate fi verificat, singura apărare reală poate fi comportamentală: ezitarea. O pauză înainte de repost. Câteva minute de examinare într-un sistem conceput pentru a nu recompensa pe nimeni.

Această poveste a fost publicată inițial de WIRED Middle East.