Cash News Logo

Daniela Amodei (Anthropic): Piața va Răsplăti Inteligența Artificială Sigură

Tech & AI4 decembrie 2025, 23:40
Daniela Amodei (Anthropic): Piața va Răsplăti Inteligența Artificială Sigură

Daniela Amodei (Anthropic): Piața va Răsplăti Inteligența Artificială Sigură

Administrația Trump poate crede că reglementările paralizează industria IA, dar unul dintre cei mai importanți jucători din industrie nu este de acord. La evenimentul Big Interview al WIRED de joi, președintele și cofondatorul Anthropic, Daniela Amodei, i-a spus editorului general WIRED, Steven Levy, că, deși țarul IA și crypto al lui Trump, David Sacks, ar fi putut să scrie pe Twitter că compania ei „rulează o strategie sofisticată de captare reglementativă bazată pe panică”, ea este convinsă că angajamentul companiei sale de a atrage atenția asupra potențialelor pericole ale IA face industria mai puternică.

„Am fost foarte vocali de la bun început că am simțit că există acest potențial incredibil” pentru IA, a spus Amodei. „Ne dorim cu adevărat să fim capabili să facem întreaga lume să realizeze potențialul, beneficiile pozitive și avantajele care pot veni din IA, și pentru a face asta, trebuie să facem bine lucrurile dificile. Trebuie să facem riscurile gestionabile. Și de aceea vorbim atât de mult despre asta.”

Peste 300.000 de startup-uri, dezvoltatori și companii folosesc o anumită versiune a modelului Claude al Anthropolic și Amodei a spus că, prin relațiile companiei cu aceste mărci, a învățat că, deși clienții doresc ca IA lor să poată face lucruri grozave, ei doresc și să fie fiabilă și sigură.

„Nimeni nu spune: „Vrem un produs mai puțin sigur””, a spus Amodei, comparând raportarea de către Anthropic a limitelor și spargerilor modelului său cu cea a unei companii auto care publică studii de testare la impact pentru a arăta modul în care a abordat problemele de siguranță. Ar putea părea șocant să vezi un manechin de testare la impact zburând prin geamul unei mașini într-un videoclip, dar a afla că un producător auto și-a actualizat caracteristicile de siguranță ale vehiculului ca urmare a acelui test ar putea convinge un cumpărător de o mașină. Amodei a spus că același lucru este valabil și pentru companiile care utilizează produsele IA ale Anthropic, ceea ce face o piață oarecum autoreglementată.

„Stabilim ceea ce puteți considera aproape standarde minime de siguranță doar prin ceea ce introducem în economie”, a spus ea. Companiile „acum construiesc multe fluxuri de lucru și sarcini de instrumente de zi cu zi în jurul IA și sunt de genul: „Ei bine, știm că acest produs nu halucinează atât de mult, nu produce conținut dăunător și nu face toate aceste lucruri rele”. De ce ai merge cu un concurent care va obține un scor mai mic la asta?”

Amodei a spus că Anthropic a devenit cunoscută pentru angajamentul său față de ceea ce numește „IA constituțională”, unde își antrenează modelele pe un set de bază de principii etice și documente care predau valori umane. Folosirea a ceva de genul Declarației Universale a Drepturilor Omului a Națiunilor Unite pentru a antrena un model, a spus Amodei, poate învăța rapid un LLM cum să răspundă la interogări bazate nu pe ideea că o interogare este corectă sau greșită, bună sau rea, empiric, ci mai degrabă că o problemă este corectă sau greșită într-un sens etic general.

Angajamentul Anthropic de a crea un model IA mai bun, mai etic, a ajutat-o, de asemenea, să rețină talentul, a spus Amodei. „Povestea pe care o auzim de la oamenii care intră pe ușă [la Anthropic] este că există ceva în misiune și în valori și în această dorință de a fi onest atât cu binele, cât și cu răul, și în dorința de a ajuta la îmbunătățirea lucrurilor rele, care se simte foarte autentic, ca și cum am crede cu adevărat”, a explicat ea. Poate de aceea Anthropic și-a dezvoltat personalul cu pași mari în ultimii ani, de la 200 de angajați la peste 2.000.

În timp ce aceste cifre ar putea părea înfricoșătoare, mai ales când luăm în considerare toate discuțiile despre bula IA care zboară în jurul Wall Street și Silicon Valley, Amodei a spus că nu a văzut niciun semn că compania sau industria ei încetinesc.

„Pe baza a ceea ce vedem, modelele continuă să devină mai inteligente la exact genul de curbă despre care vorbesc legile de scalare, iar veniturile continuă pe aceeași curbă”, a spus Amodei. „După cum v-ar spune oricare dintre oamenii de știință care lucrează la Anthropic, totul continuă pe curbă până când nu mai merge, și de aceea încercăm cu adevărat să fim conștienți de noi înșine și umili în legătură cu asta.”