Este Inteligența Artificială Noua Frontieră a Oprimării Femeilor?
În noua sa carte, autoarea feministă Laura Bates explorează modul în care sexboții, asistenții AI și deepfake-urile reinventează misoginia și dăunează femeilor.
După ce și-a petrecut primii 20 de ani ca bonă în Marea Britanie, Laura Bates a observat că fetele tinere de care avea grijă erau preocupate de corpul lor, stimulate de marketingul pe care îl primeau. În 2012, Bates, o autoare și activistă feministă stabilită la Londra, a lansat The Everyday Sexism Project, un site web dedicat documentării și combaterii sexismului, misoginiei și violenței de gen din întreaga lume, evidențiind cazurile insidioase, cum ar fi munca invizibilă, referirea la femei ca fete și comentariile asupra ținutei lor în contexte profesionale. Site-ul a fost transformat într-o carte în 2014. De atunci, hărțuirea sexuală a femeilor s-a extins în spațiile online, inclusiv experiența lui Bates de a fi victima pornografiei deepfake, ceea ce a determinat-o să scrie noua sa carte, The New Age of Sexism: How AI and Emerging Technologies Are Reinventing Misogyny, publicată pe 9 septembrie de Sourcebooks.
În timp ce violența bazată pe gen este de obicei săvârșită de persoane apropiate victimei, accesul rapid, ușor și ieftin, dacă nu gratuit, la inteligența artificială „reduce foarte rapid bariera de acces la această formă particulară de abuz”, spune Bates pentru WIRED. „Orice persoană de orice vârstă care are acces la internet poate acum... crea imagini abuzive, pornografice extrem de realiste ale oricărei femei sau fete de la care a capturat o imagine complet îmbrăcată de pe internet.”
Prin cercetări directe care au implicat discuții cu creatorii de tehnologie și femeile care au fost victime ale IA și tehnologiei deepfake, precum și utilizarea roboților de chat și a sexboților pe care îi denunță, în The New Age of Sexism, Bates prezintă modul în care, dacă nu este reglementată în mod corespunzător și urgent, IA este noua frontieră în subjugarea femeilor.
„Știu că oamenii se vor gândi: 'sună ca o feministă exagerată și cârcotașă', dar dacă te uiți la conducerea marilor companii de tehnologie, bărbații de la aceste niveluri spun exact același lucru ca mine”, spune Bates, menționând pe Jan Leike, care a părăsit OpenAI anul trecut din cauza îngrijorărilor cu privire la faptul că compania acordă prioritate „produselor strălucitoare” în detrimentul siguranței, ca exemplu. „Acest avertisment este lansat de persoane care sunt integrate în aceste companii la niveluri înalte. Întrebarea este dacă suntem pregătiți să ascultăm.”
Bates vorbește, de asemenea, cu WIRED despre modul în care prietenele AI și asistenții virtuali pot indoctrina misoginia în copii, amprenta ecologică a IA afectând mai întâi femeile și modul în care nu durează mult pentru ca noile tehnologii să degenereze în prejudecățile bigote ale creatorilor și utilizatorilor săi.
Acest interviu a fost condensat și editat pentru lungime și claritate.
WIRED: Un lucru care m-a frapat la cartea ta este că nu durează mult pentru ca noile evoluții să degenereze în misoginie. Crezi că este corect să spunem asta?
Laura Bates: Este un tipar lung, bine bătătorit. Am văzut-o cu internetul, am văzut-o cu rețelele sociale, am văzut-o cu pornografia online. Aproape întotdeauna, când suntem suficient de privilegiați să avem acces la noi forme de tehnologie, va exista un subset semnificativ dintre acestea care vor ajunge foarte repede să fie adaptate pentru a hărțui femeile, a abuza de femei, a subjuga femeile și a menține controlul patriarhal asupra femeilor. Motivul pentru aceasta este că tehnologia în sine nu este inerent bună sau rea sau orice altceva; este codificată cu prejudecățile creatorilor săi. Reflectă formele istorice societale de misoginie, dar le dă o nouă viață. Le oferă noi mijloace de a ajunge la ținte și noi forme de abuz. Ceea ce este deosebit de îngrijorător în legătură cu această nouă frontieră a tehnologiei cu IA și forme generative de IA, în special, este că nu doar regurgitează acele forme existente de abuz înapoi asupra noastră – le intensifică prin forme suplimentare de amenințări, hărțuire și control care trebuie exercitate de abuzatori. Desigur, sunt încă parteneri intimi, foști parteneri intimi și persoane apropiate victimelor care comit majoritatea abuzurilor bazate pe imagini, dar cu deepfake-urile aceasta lărgește rețeaua de potențiali abuzatori și victime.
Ai putea vorbi despre asta?
Permite accesul la victime într-un mod uluitor. Orice persoană de orice vârstă care are acces la internet poate acum, cu o ușurință, viteză și [cheltuieli] relativă, dacă nu complet gratuit, crea imagini abuzive, pornografice extrem de realiste ale oricărei femei sau fete de la care a capturat o imagine complet îmbrăcată de pe internet. Reduce foarte rapid bariera de acces la această formă particulară de abuz. De exemplu, avem situații în SUA și Marea Britanie și în Australia vedem cazuri care apar din școli în care copiii accesează instrumente și le folosesc pentru a crea imagini abuzive, pornografice extrem de realiste ale colegilor lor de clasă la vârsta de 10 sau 11 ani.
Legea privind siguranța online din Marea Britanie și interdicția Australiei privind rețelele sociale pentru copiii sub 16 ani au fost implementate recent. Crezi că, până când puterile ajung să instituie legi și garanții similare în jurul utilizării IA pentru copii, va fi prea târziu?
Am scris această carte acum pentru că am simțit că suntem pe marginea unei prăpastii în care aceste noi forme de tehnologie care sunt atât de neîncercate și netestate sunt încorporate și codificate în fundațiile viitoarei noastre societăți. Chiar și în perioada de când [am terminat de scris cartea], am văzut o explozie de povești care demonstrează foarte clar daunele legate de aceste tehnologii. Una dintre daune este lansarea acestor produse pentru accesul public în urmărirea creșterii profiturilor fără garanții și reglementări eficiente. Vedem impactul negativ asupra întregii societăți, dar în special asupra copiilor care accesează aceste tehnologii în timpul anilor lor de formare, când sunt cei mai vulnerabili. Dacă ne uităm la instrumentele AI care le permit să interacționeze cu și să creeze însoțitori sau prietene AI, știm că băieții adolescenți le folosesc pentru a le personaliza până la culoarea ochilor, forma sânilor, personalitate, nume. Ea le este apoi prezentată ca și cum ar fi o ființă umană sensibilă; un avatar extrem de realist care le este disponibil etern, complet supus și pregătit să sară imediat în orice întâlnire sexuală pe care doresc să o joace fără nicio discuție sau [consimțământ], inclusiv violență sexuală extremă.
Ce le-ai spune celor care susțin că sexboții și prietenele AI pot fi folosite ca instrumente pentru a ajuta persoanele care se luptă cu relațiile interpersonale și romantice?
Acesta nu este un lucru, așa cum susțin creatorii acestor aplicații, care va ajuta băieții sau bărbații să dezvolte abilități sănătoase de relaționare sau să amelioreze violența [IRL]. Nu există dovezi care să susțină aceste afirmații. Ele sunt un strat de var de marketing folosit de companii pentru a da o rotire filantropică faptului că vând misoginie pură și simplă. Aplicațiile AI de nudificare sau dezbrăcare... nici măcar nu funcționează pe majoritatea imaginilor cu corpurile bărbaților! Este exploatare, pur și simplu. Se bazează pe dezumanizarea și obiectivarea imensă a femeilor. Se bazează pe prezentarea unei idei extrem de misogine despre ce este și ar trebui să fie o relație, ce este și ar trebui să fie o femeie. Ea nu va fi niciodată de acord cu tine, nu va răspunde niciodată, nu va avea niciodată nevoie de timp singură, nu va dori niciodată să vorbească despre propria ei viață. Ea este complet supusă și submisivă și este acolo pentru a-ți flata ego-ul. Ideea că asta este bine pentru femei este, evident, absurdă. Dar ideea că acest lucru este util pentru bărbați este insultătoare și reductivă. Desigur, există probleme reale cu lupte pentru sănătatea mintală și singurătate, dar niciuna dintre acestea nu poate fi rezolvată de misoginia în formă de aplicație. A permite oamenilor să-și pună în scenă aceste fantezii este mult mai probabil să ducă la escaladarea acelor infracțiuni. Nu există dovezi că va fi preventivă.
Antropomorfizarea și, important, feminizarea asistenților virtuali precum Siri și Alexa au pregătit terenul pentru techno-sexism?
Cercetătorii estimează că 10% din conversațiile cu asistenții virtuali sunt de natură abuzivă. Când te uiți la miliardele de oameni care folosesc [asistenții virtuali] zilnic – milioanele de copii care cresc în case unde îi aud vorbindu-le în acest fel zilnic – la scară, asta are un impact social masiv. Nu înseamnă că este același lucru cu un sexbot care a fost fabricat cu o setare de viol, dar are un impact asupra percepției noastre asupra sarcinilor de secretariat și administrative ca fiind lucruri asociate cu feminitatea. Este frustrant că preocupările au fost ridicate în mod constant de feministe și de femei care lucrează în tehnologie și au fost respinse și ridiculizate în timp ce o comunitate de bărbați a făcut un profit uriaș.
Ce zici de impactul ecologic al IA? Cum crizele de mediu cauzate de IA afectează mai întâi femeile?
Știm că femeile sunt în prima linie a crizei globale de mediu. Ele sunt adesea primele afectate și cele mai grav afectate. O singură căutare pe ChatGPT folosește de 10 ori energia unei căutări medii pe Google. Aceste conexiuni nu sunt făcute, iar când sunt, există acest gest din umeri de „ei bine, acesta este prețul pe care îl plătim pentru progres”. Există spațiu aici pentru un dialog atent despre ce este progresul și pentru cine. Se pare că există această presupunere că progresul înseamnă profituri astronomice acumulate de un număr mic de bărbați albi din nordul global, iar prețul pe care trebuie să-l plătească toți ceilalți pentru asta este de așteptat să fie acceptabil. Depășește acest lucru în ceea ce privește lanțul de aprovizionare: materialele fizice care sunt necesare pentru unele dintre aceste instrumente, de unde provin și persoanele care sunt exploatate în acele zone unde sunt concentrate aceste resurse naturale. De asemenea, știm că femeile care lucrează în forța manuală de etichetare a datelor AI tind să fie subplătite, exploatate și hărțuite sexual. Există straturi și straturi de abuz aici care sunt trecute cu vederea de aceste produse noi strălucitoare, multe dintre ele existând doar pentru a oferi bărbaților noi modalități de a hărțui și abuza femeile. Puteți trage o linie directă de la asta la devastarea planetei noastre.
Este atât de greu să vezi o cale clară prin toate acestea. Ce vezi ca fiind calea de urmat pentru IA și tehnologiile emergente?
Soluțiile potențiale sunt acolo, dar trebuie să acționăm rapid. Cel mai important este reglementarea. La nivel global, imaginea este cu adevărat îngrijorătoare pe acest front. Administrația Trump dă înapoi, împiedicând marile companii de tehnologie să încerce să implementeze garanții în produsele lor, [ceea ce încurajează] alte guverne din întreaga lume să facă același lucru. La Summitul de acțiune AI de la Paris de la începutul acestui an, chiar dacă 60 de țări au semnat un acord care sugerează că IA ar trebui să fie deschisă, accesibilă, sigură și corectă... SUA au refuzat să semneze [și] guvernul britanic a spus, de asemenea, că nu va semna acel acord. Există unele semne pozitive din partea Consiliului Europei pentru a dezvolta ceea ce ar fi un cadru atent, rezonabil pentru reglementare, într-un mod care să nu înăbușe progresul. A existat întotdeauna o sfială și o teamă în jurul reglementării tehnologiei, deoarece este imposibil de reglementat, că este imposibil ca companiile de tehnologie să dețină controlul, că este prea mare și prea mulți oameni folosesc produsele lor și este pur și simplu prea rapid în mișcare, așa că pur și simplu nu ne putem aștepta de la ei. Dacă am aborda această abordare [orice altă industrie], ar suna ridicol! Dacă faceți zeci de miliarde de dolari profit pe an și aveți cele mai strălucitoare minți din lume care lucrează pentru dvs. și creați ceea ce pretindeți a fi întreaga nouă modalitate a viitorului, atunci da, aveți instrumentele și finanțarea necesare pentru a vă face platforma sigură. Pur și simplu alegeți să nu o faceți. Nu este vorba despre a fi anti-tehnologie sau anti-inovare. Dacă ceva, este invers. Potențialul pentru beneficii umane este atât de mare încât nu putem lăsa acest lucru să scape de sub control în mâinile câtorva tipi de tehnologie însetați de putere.