Meta a anunțat joi că începe să implementeze sisteme AI mai avansate pentru a gestiona aplicarea politicilor de conținut, intenționând să reducă dependența de furnizorii terți. Printre sarcinile legate de aplicarea politicilor de conținut se numără identificarea și eliminarea conținutului despre terorism, exploatarea copiilor, droguri, fraude și escrocherii.
Compania afirmă că va implementa aceste sisteme AI mai avansate în toate aplicațiile sale odată ce acestea depășesc în mod constant metodele sale actuale de aplicare a politicilor de conținut. În același timp, își va reduce dependența de furnizorii terți pentru aplicarea politicilor de conținut.
„Deși vom avea în continuare persoane care vor revizui conținutul, aceste sisteme vor putea prelua munca mai potrivită pentru tehnologie, cum ar fi revizuiri repetitive ale conținutului grafic sau zonele în care actorii adversari își schimbă constant tacticile, cum ar fi vânzările ilicite de droguri sau escrocheriile”, a explicat Meta într-o postare pe blog.
Meta consideră că aceste sisteme AI pot detecta mai multe încălcări cu o acuratețe mai mare, pot preveni mai bine escrocheriile, pot răspunde mai rapid la evenimentele din lumea reală și pot reduce aplicarea excesivă. Compania afirmă că testele preliminare ale sistemelor AI au fost promițătoare, deoarece pot detecta de două ori mai mult conținut sexual explicit ilegal decât echipele sale de revizuire, reducând în același timp rata de eroare cu peste 60%.
De asemenea, se spune că sistemele pot identifica și preveni mai multe conturi de impersonare care implică celebrități și alte persoane de profil înalt, precum și ajută la oprirea preluărilor de conturi prin detectarea semnalelor precum autentificările din locații noi, modificările de parolă sau modificările efectuate asupra unui profil. În plus, Meta spune că sistemele pot identifica și atenua aproximativ 5.000 de tentative de escrocherie pe zi, în care escrocii încearcă să-i păcălească pe oameni să-și dezvăluie detaliile de conectare.
„Experții vor proiecta, instrui, supraveghea și evalua sistemele noastre AI, măsurând performanța și luând cele mai complexe decizii cu impact ridicat”, a scris Meta în postarea de pe blog. „De exemplu, oamenii vor continua să joace un rol cheie în modul în care luăm cele mai riscante și mai critice decizii, cum ar fi apelurile privind dezactivarea conturilor sau raportările către organele de aplicare a legii.”
Măsura vine în contextul în care Meta și-a relaxat regulile de moderare a conținutului în ultimul an, de când președintele Donald Trump a preluat funcția pentru a doua oară. Anul trecut, compania și-a încheiat programul de verificare a faptelor de către terți în favoarea unui model de tip Community Notes similar cu X. De asemenea, a ridicat restricțiile privind „subiectele care fac parte din discursul dominant” și a declarat că utilizatorii vor fi încurajați să adopte o abordare „personalizată” a conținutului politic.
De asemenea, vine în contextul în care Meta și alte companii Big Tech se confruntă în prezent cu mai multe procese care încearcă să tragă la răspundere giganții rețelelor sociale pentru că au dăunat copiilor și tinerilor utilizatori.
Meta a mai anunțat joi că lansează un asistent de asistență Meta AI care va oferi utilizatorilor acces la asistență 24/7. Asistentul este lansat la nivel global în aplicațiile Facebook și Instagram pentru iOS și Android și în Centrul de ajutor de pe Facebook și Instagram pe desktop.

