Anthropic a acuzat trei firme de inteligență artificială că au folosit ilicit modelul său lingvistic extins, Claude, pentru a-și îmbunătăți propriile modele printr-o tehnică cunoscută sub numele de atac de "distilare".
Într-o postare pe blog de duminică, Anthropic a declarat că a identificat aceste "atacuri" de către DeepSeek, Moonshot și MiniMax, care implică antrenarea unui model mai puțin performant pe baza rezultatelor unuia mai puternic.
Anthropic a acuzat trio-ul de generare a "peste 16 milioane de interacțiuni" combinate cu AI-ul Claude al firmei, prin "aproximativ 24.000 de conturi frauduloase".
"Distilarea este o metodă de antrenament larg utilizată și legitimă. De exemplu, laboratoarele AI de frontieră își distilează în mod obișnuit propriile modele pentru a crea versiuni mai mici și mai ieftine pentru clienții lor", a scris Anthropic, adăugând: "Dar distilarea poate fi, de asemenea, utilizată în scopuri ilicite: concurenții o pot folosi pentru a dobândi capacități puternice de la alte laboratoare într-o fracțiune din timp și la o fracțiune din costul necesar pentru a le dezvolta independent."
Anthropic a spus că atacurile s-au concentrat pe colectarea de date de la Claude pentru o gamă largă de scopuri, inclusiv raționamentul agentic, codificarea și analiza datelor, sarcinile de notare bazate pe criterii și viziunea computerizată.
"Fiecare campanie a vizat cele mai diferențiate capacități ale lui Claude: raționamentul agentic, utilizarea instrumentelor și codificarea", a declarat firma AI de mai multe miliarde de dolari.
Anthropic spune că a reușit să identifice trio-ul prin "o corelație a adreselor IP, metadate ale cererilor, indicatori de infrastructură și, în unele cazuri, confirmare din partea partenerilor din industrie care au observat aceiași actori și comportamente pe platformele lor."
DeepSeek, Moonshot și Minimax sunt toate companii AI cu sediul în China. Toate trei au estimări de evaluare de mai multe miliarde de dolari, DeepSeek fiind cea mai recunoscută pe plan internațional dintre cele trei.
Dincolo de implicațiile legate de proprietatea intelectuală, Anthropic a argumentat că campaniile de distilare de la concurenții străini prezintă riscuri geopolitice reale.
"Laboratoarele străine care distilează modele americane pot introduce apoi aceste capacități neprotejate în sistemele militare, de informații și de supraveghere, permițând guvernelor autoritare să implementeze AI de frontieră pentru operațiuni cibernetice ofensive, campanii de dezinformare și supraveghere în masă", a spus firma.
Pe viitor, Anthropic a spus că se va proteja prin îmbunătățirea sistemelor de detectare pentru a ajuta la depistarea traficului dubios, prin partajarea informațiilor despre amenințări și prin înăsprirea controalelor de acces, printre altele.
Firma a solicitat, de asemenea, mai multă colaborare din partea participanților din industria internă și a legislatorilor pentru a ajuta la oprirea companiilor AI străine să atace firmele americane.
"Nicio companie nu poate rezolva acest lucru singură. După cum am menționat mai sus, atacurile de distilare la această scară necesită un răspuns coordonat în întreaga industrie AI, furnizorii de cloud și factorii de decizie politică. Publicăm acest lucru pentru a pune dovezile la dispoziția tuturor celor interesați de rezultat."

