Cash News Logo

„100 Apeluri Video Pe Zi”: Modele Aplică Să Fie Fețele Înșelătoriilor cu Inteligență Artificială

Tech & AI16 martie 2026, 11:00
„100 Apeluri Video Pe Zi”: Modele Aplică Să Fie Fețele Înșelătoriilor cu Inteligență Artificială

„100 Apeluri Video Pe Zi”: Modele Aplică Să Fie Fețele Înșelătoriilor cu Inteligență Artificială

Când aplică pentru joburi, Angel își laudă abilitățile lingvistice. „Pot vorbi fluent engleza, pot vorbi bine chineza, vorbesc și rusă și turcă”, explică tânăra uzbekă, glamuroasă, de 24 de ani, într-un videoclip selfie realizat pentru recrutori. Angel ajunsese în orașul cambodgian Sihanoukville în acea zi, a spus ea, și era gata să înceapă lucrul imediat.

Aceste abilități lingvistice impresionante, totuși, au fost probabil folosite ca parte a unor scheme elaborate de tip „pig-butchering” care vizează americani. Asta pentru că, în loc să aplice pentru un job corporativ convențional, Angel se oferea să lucreze ca „model de față AI” – stând în fața unui computer toată ziua și efectuând apeluri video deepfake pentru a manipula potențiale victime ale înșelătoriei. Aplicația ei, care cerea și înălțimea și greutatea ei, spune că a acumulat deja „1 an ca model AI”.

Angel este departe de a fi singura în această urmărire. O analiză WIRED a zeci de videoclipuri de recrutare și anunțuri de locuri de muncă postate pe Telegram arată oameni din întreaga lume – inclusiv Turcia, Rusia, Ucraina, Belarus și mai multe țări asiatice – care aplică pentru a fi modele AI sau modele „față reală” în Cambodgia și Asia de Sud-Est. Regiunea a devenit casa unor operațiuni vaste, industrializate de înșelăciune, care țin captive mii de victime ale traficului de persoane și le obligă să conducă online investiții în criptomonede și înșelătorii romantice. Pe lângă faptul că îi păcălesc pe oameni să lucreze în complexe de înșelătorie, aceste întreprinderi criminale de înaltă tehnologie, de miliarde de dolari, pot atrage și oameni în căutarea unui „loc de muncă” ca parte a operațiunilor.

„În ultimul an până astăzi, angajează și oameni care fac modelare AI”, spune Hieu Minh Ngo, un investigator de criminalitate cibernetică la organizația non-profit vietnameză de luptă împotriva înșelătoriilor, ChongLuaDao. „Îți vor da software-ul astfel încât să-și poată schimba fața folosind AI și pot face înșelătorii romantice”, spune el. Ngo, un hacker criminal reformat care urmărește acum activitatea complexului de înșelătorie și sprijină victimele, a identificat aproximativ două duzini de canale pe Telegram care au unele postări de locuri de muncă pentru modele AI în regiune. Humanity Research Consultancy, o organizație anti-trafic de persoane, a urmărit, de asemenea, persoane care aplică pe Telegram pentru locuri de muncă în „orașe cunoscute ca centre de înșelăciune” ca „modele” și „modele AI”, inclusiv aplicația lui Angel.

Ascensiunea modelelor AI vine pe măsură ce infractorii cibernetici adoptă în general AI și folosesc schimbul de fețe ca parte a înșelătoriilor lor online. De obicei, escrocii vor folosi personaje false pentru a contacta potențiale victime pe rețelele sociale sau pe platformele de mesagerie. Ei vor folosi adesea imagini furate de celebrități sau bărbați sau femei atractivi pentru a atrage o persoană să vorbească cu ei. Odată ce iau contact, îi vor bombarda apoi cu atenție pentru a ajuta la construirea unei relații, înainte de a încerca să-i facă să renunțe la banii lor. În unele cazuri, mai multe persoane pot controla contul escrocilor și pot trimite mesaje victimei sub o singură persoană falsă. Dar dacă o potențială victimă cere un apel video în timpul acestor interacțiuni – pentru a verifica, de exemplu, dacă persoana cu care vorbește este reală – atunci pot fi folosite apeluri video deepfake și modele care își schimbă fețele. Unele centre de înșelătorie din Asia de Sud-Est au „camere AI” dedicate, de unde se efectuează apelurile.

Anunțurile de locuri de muncă pentru modele AI sau „modele reale” analizate de WIRED cer ore de lucru excesive, oferă puțin timp liber și necesită un program implacabil. Anunțurile sunt de obicei postate de un administrator de canal și nu includ detalii de contact sau listează pentru cine ar lucra cineva în mod specific. O postare de recrutare pentru un presupus contract de șase luni spune că persoana va trebui să trimită fotografii zilnic, să efectueze apeluri video și vocale și să creeze mesaje audio și video. „Aproximativ 100 de apeluri video pe zi”, spune postarea. Alte postări listează până la 150 de potențiale apeluri pe zi. „Pot fi folosite filtre, dar asigurați-vă că imaginea este realistă. Sunt permise videoclipuri live; perucile sunt interzise”, scrie un alt anunț. Pentru privilegiu, persoana ar primi, presupus, o zi întreagă și patru jumătăți de zi liberă pe lună. Un alt anunț listează orele de lucru între 22:00 și 10:00 în Cambodgia și o preferință ca persoana să aibă un „accent occidental”. Un anunț de loc de muncă pentru model spune: „Compania vă va reține pașaportul pentru gestionarea vizei și a permisului de muncă”. Luarea pașapoartelor oamenilor este una dintre principalele modalități prin care operatorii complexului de înșelătorie țin oamenii captivi.

În timp ce câțiva bărbați aplică pentru rolurile de model AI, marea majoritate a aplicațiilor vizualizate de WIRED au fost de la femei tinere, majoritatea la începutul douăzeci de ani. Solicitanților li se cere să trimită un scurt videoclip în care se prezintă, text despre experiența și așteptările lor și fotografii cu ei înșiși; unora li se cere să includă starea lor civilă și starea de „vaccinare”.

„De peste trei ani, am lucrat cu companii chineze pentru diferite tipuri de proiecte, inclusiv piața bursieră, criptomonede și poveste de dragoste”, spune o persoană într-un videoclip de recrutare. Un altul spune: „Pe baza experienței mele, sunt bun în gestionarea clienților, îi conving să investească folosind propriile mele tehnici și discutând despre modul în care tranzacționarea cu aur le aduce beneficii”. Aplicațiile video nu conțin nume complete sau detalii de contact, așa că WIRED nu a putut contacta persoanele care aplică pentru roluri.

Solicitanții de modele au solicitat salarii de până la 7.000 de dolari pe lună, potrivit Humanity Research Consultancy. De asemenea, fac solicitări specifice cu privire la condițiile lor de lucru, multe dintre acestea putând să nu fie acordate persoanelor care au fost traficate în operațiunile de înșelătorie. O femeie a cerut propria cameră și că „poate ieși afară”. O altă persoană a solicitat să poată „merge acasă în ziua liberă” și să aibă o „mașină de spălat personală”.

Deși unele dintre modele sunt recrutate pentru a lucra în roluri și pot obține mai multe libertăți decât victimele traficului de persoane, spune Ling Li, cofondatorul organizației non-profit EOS collective, care lucrează cu victimele industriei de înșelătorie, ele pot totuși să se confrunte cu un tratament dur din partea șefilor. „O victimă europeană ne-a spus că a văzut niște modele italiene în complexul său, dar nu poate spune [dacă] sunt [acolo] de bunăvoie sau nu, deoarece au fost bătute în fața lui”, spune ea. „Și există și unele hărțuiri sexuale.”

WIRED a trimis Telegram o listă cu două duzini de canale de locuri de muncă și canale de recrutare care au făcut publicitate modelelor AI, alături de alte roluri, în ultimele luni. Compania nu a părut să elimine niciunul dintre canale; cu toate acestea, un purtător de cuvânt spune că politicile sale nu permit activități legate de înșelătorie.

„Conținutul care încurajează sau permite înșelătoriile este interzis în mod explicit de termenii și condițiile Telegram și este eliminat ori de câte ori este descoperit”, spune un purtător de cuvânt al Telegram. „În cazuri ca acesta, există motive legitime pentru care cineva și-ar putea da asemănarea, așa că un astfel de conținut trebuie examinat de la caz la caz.”

Marea majoritate a anunțurilor și aplicațiilor de locuri de muncă pentru modele de pe Telegram nu menționează în mod specific activitatea de înșelătorie, dar includ o serie de semnale de alarmă care indică înșelătorii, spune Ngo. „De ce [aveți nevoie] de model AI? Aceasta este prima întrebare”, spune Ngo. Alte semne de avertizare includ locațiile fiind în locuri cunoscute de înșelătorie în Cambodgia, afirmații de salarii mari pentru regiune și cerințe frecvente de abilități de limba chineză, spune Ngo. Anunțurile și aplicațiile video includ, de asemenea, un limbaj aliniat îndeaproape cu înșelătoriile, potrivit cercetătorilor și analizei WIRED a postărilor. Aceasta include mențiuni frecvente ale „clienților”, un termen pe care operațiunile de înșelătorie îl folosesc în loc de „victime”, plus referiri frecvente la investiții în criptomonede sau tranzacționarea cu aur.

O persoană, care a susținut că a lucrat ca model AI și model „față reală” timp de 18 luni, a spus că munca lor anterioară a implicat convingerea oamenilor să investească: „Chiar știu cum să fac o bună comunicare cu un client, cum să-i fac să aibă încredere în noi, cum să le trimit o imagine bună și cum să-i fac să râdă.” Cu toate acestea, unele postări sunt mai explicite, listând o „piață de locuri de muncă” pentru care cineva aplica ca: „înșelătorie de dragoste”. O altă postare descrie experiența unei persoane ca: „3 ani ca serviciu clienți (ucigaș) al platformei de înșelătorie cripto”.

După ce mama lui Frank McKenna a început să primească mesaje text de înșelătorie despre efectuarea de investiții anul trecut, el a început să le intercepteze și să vorbească cu expeditorii. McKenna, strategul șef al firmei de software anti-fraudă Point Predictive, care a urmărit îndeaproape „modelele AI”, spune că a vrut să înțeleagă cum funcționează, așa că a stabilit un apel video între ei și mama sa. „Singurul scop al acelui apel a fost să demonstreze că sunt o persoană reală și să câștige încredere”, spune McKenna. În timpul apelului, spune el, tânăra de pe cameră părea să folosească un filtru AI pe față. „Este cam defectuos. Sunt și alte persoane în cameră cu ea, așa că există ecou”, spune el. „Apoi am mai avut un scurt apel cu un alt model AI.”

O lună sau cam așa mai târziu, spune McKenna, a văzut ceea ce părea a fi videoclipul de recrutare al aceluiași model postat online, spunând că caută un nou contract, deoarece al ei expirase. „A fost un fel de lume mică a acestor modele AI care par să meargă din loc în loc, complet voluntar, câștigând destul de bine”, spune McKenna. „Probabil că sunt doar în camera video efectuând apeluri toată ziua cu o mulțime de victime diferite.”