Cine decide ce îți spune inteligența artificială? Campbell Brown, fostă șefă de știri la Meta, are o părere.
Campbell Brown și-a petrecut cariera urmărind informații exacte, mai întâi ca jurnalist TV renumit, apoi ca prima și singura șefă dedicată a știrilor de la Facebook. Acum, urmărind modul în care inteligența artificială remodelează modul în care oamenii consumă informații, ea vede istoria amenințând să se repete. De data aceasta, nu așteaptă ca altcineva să o rezolve.
Compania ei, Forum AI - pe care a discutat-o recent cu Tim Fernholz de la TechCrunch la o seară StrictlyVC în San Francisco - evaluează modul în care modelele fundamentale funcționează pe ceea ce ea numește "subiecte cu miză mare" - geopolitică, sănătate mintală, finanțe, angajare - subiecte în care "nu există răspunsuri clare da sau nu, unde este întunecat și nuanțat și complex." Ideea este de a găsi cei mai importanți experți din lume, de a-i face să proiecteze repere, apoi de a antrena judecători AI pentru a evalua modelele la scară.
Pentru activitatea de geopolitică a Forum AI, Brown i-a recrutat pe Niall Ferguson, Fareed Zakaria, fostul secretar de stat Tony Blinken, fostul președinte al Camerei Reprezentanților Kevin McCarthy și Anne Neuberger, care a condus securitatea cibernetică în administrația Obama. Scopul este de a face ca judecătorii AI să ajungă la un consens de aproximativ 90% cu acei experți umani, un prag pe care ea spune că Forum AI a reușit să îl atingă.
Brown urmărește originea Forum AI, fondată acum 17 luni în New York, într-un moment specific. "Eram la Meta când ChatGPT a fost lansat public pentru prima dată", și-a amintit ea, "și-mi amintesc că mi-am dat seama la scurt timp după aceea că acesta va fi canalul prin care vor curge toate informațiile. Și nu este foarte bun."
Implicațiile pentru propriii ei copii au făcut ca momentul să se simtă aproape existențial. "Copiii mei vor fi foarte proști dacă nu ne dăm seama cum să rezolvăm asta", și-a amintit ea că s-a gândit.
Ceea ce a frustrat-o cel mai mult a fost că acuratețea nu părea a fi prioritatea nimănui. Companiile de modele fundamentale, a spus ea, sunt "extrem de concentrate pe codare și matematică", în timp ce știrile și informațiile sunt mai grele. Dar mai greu, a susținut ea, nu înseamnă opțional.
Într-adevăr, când Forum AI a început să evalueze modelele de top, constatările nu au fost tocmai încurajatoare. Ea a citat Gemini care a extras informații de pe site-urile web ale Partidului Comunist Chinez "pentru povești care nu au nimic de-a face cu China" și a remarcat o tendință politică de stânga în aproape toate modelele. Abundă și eșecuri mai subtile, a spus ea, inclusiv lipsa contextului, lipsa perspectivelor, argumentele omului de paie fără recunoaștere. "Mai este mult de parcurs", a spus ea. "Dar cred, de asemenea, că există câteva remedieri foarte ușoare care ar îmbunătăți considerabil rezultatele."
Brown a petrecut ani de zile la Facebook urmărind ce se întâmplă când o platformă optimizează pentru lucrul greșit. "Am eșuat la multe dintre lucrurile pe care le-am încercat", a spus ea lui Fernholz. Programul de verificare a faptelor pe care l-a construit nu mai există. Lecția, chiar dacă rețelele sociale au închis ochii, este că optimizarea pentru implicare a fost groaznică pentru societate și a lăsat mulți mai puțin informați. Speranța ei este că inteligența artificială poate rupe acest ciclu.
"În acest moment, ar putea merge în ambele sensuri", a spus ea; companiile ar putea oferi utilizatorilor ceea ce își doresc sau ar putea "oferi oamenilor ceea ce este real și ceea ce este onest și ceea ce este adevărat." Ea a recunoscut că versiunea idealistă a acestui lucru - inteligența artificială care optimizează pentru adevăr - ar putea suna naiv. Dar ea crede că întreprinderea ar putea fi aliatul improbabil aici. Companiile care utilizează inteligența artificială pentru decizii de credit, împrumuturi, asigurări și angajare se preocupă de răspundere, iar "vor dori să optimizați pentru a face corect." Această cerere a întreprinderii este, de asemenea, ceea ce Forum AI își pariază afacerea, deși transformarea interesului pentru conformitate în venituri constante rămâne o provocare, mai ales având în vedere că o mare parte din piața actuală este încă mulțumită de auditurile cu bife și de reperele standardizate pe care Brown le consideră inadecvate. Peisajul conformității, a spus ea, este "o glumă." Când New York City a adoptat prima lege privind părtinirea angajărilor, care impune audituri AI, controlorul statului a constatat că mai mult de jumătate aveau încălcări care au rămas nedetectate. Evaluarea reală, a spus ea, necesită expertiză în domeniu pentru a lucra nu numai prin scenarii cunoscute, ci și prin cazuri extreme care "vă pot băga în necazuri la care oamenii nu se gândesc." Și această muncă necesită timp. "Generaliștii inteligenți nu vor face față."
Brown - a cărei companie a strâns toamna trecută 3 milioane de dolari conduși de Lerer Hippeau - este într-o poziție unică pentru a descrie deconectarea dintre imaginea de sine a industriei AI și realitatea pentru majoritatea utilizatorilor. "Auziți de la liderii marilor companii de tehnologie, 'Această tehnologie va schimba lumea', 'vă va scoate din muncă', 'va vindeca cancerul'", a spus ea. "Dar apoi, pentru o persoană normală care folosește doar un chatbot pentru a pune întrebări de bază, încă mai primesc o mulțime de neglijențe și răspunsuri greșite." Încrederea în AI se află la niveluri extraordinar de scăzute și ea crede că scepticismul este, în multe cazuri, justificat. "Conversația are loc cumva în Silicon Valley în jurul unui lucru, și o conversație total diferită are loc printre consumatori."

