Anthropic acuză trei companii chineze de IA că au creat peste 24.000 de conturi false cu modelul său Claude AI pentru a-și îmbunătăți propriile modele. Laboratoarele – DeepSeek, Moonshot AI și MiniMax – ar fi generat peste 16 milioane de schimburi cu Claude prin intermediul acestor conturi, folosind o tehnică numită „distilare”.
Anthropic a declarat că laboratoarele „au vizat cele mai diferențiate capacități ale lui Claude: raționament agentic, utilizarea instrumentelor și codificare”.
Aceste acuzații vin în contextul dezbaterilor privind modul strict de aplicare a controalelor la exportul de cipuri AI avansate, o politică menită să limiteze dezvoltarea IA în China.
Distilarea este o metodă comună de antrenare pe care laboratoarele de IA o folosesc pe propriile modele pentru a crea versiuni mai mici și mai ieftine, dar concurenții o pot folosi pentru a copia, practic, munca altor laboratoare. OpenAI a trimis o notă legislatorilor din Congres la începutul acestei luni, acuzând DeepSeek că folosește distilarea pentru a imita produsele sale.
DeepSeek a făcut valuri pentru prima dată acum un an, când a lansat modelul său de raționament open-source R1, care aproape că a egalat laboratoarele americane de frontieră în ceea ce privește performanța, la o fracțiune din cost. Se așteaptă ca DeepSeek să lanseze în curând DeepSeek V4, cel mai recent model al său, care se pare că poate depăși performanțele Claude de la Anthropic și ChatGPT de la OpenAI în codificare.
Amploarea fiecărui atac a diferit. Anthropic a urmărit peste 150.000 de schimburi de la DeepSeek care păreau menite să îmbunătățească logica fundamentală și alinierea, în special în jurul unor alternative sigure pentru cenzură la interogările sensibile din punct de vedere politic. Moonshot AI a avut peste 3,4 milioane de schimburi care au vizat raționamentul agentic și utilizarea instrumentelor, codificarea și analiza datelor, dezvoltarea de agenți pentru utilizarea computerelor și vederea computerizată. Luna trecută, firma a lansat un nou model open source Kimi K2.5 și un agent de codificare.
Cele 13 milioane de schimburi ale MiniMax au vizat codificarea agentică și utilizarea și orchestrarea instrumentelor. Anthropic a declarat că a putut să observe MiniMax în acțiune, deoarece a redirecționat aproape jumătate din traficul său pentru a sifona capacități de la cel mai recent model Claude, când a fost lansat.
Anthropic spune că va continua să investească în mecanisme de apărare care fac atacurile de distilare mai greu de executat și mai ușor de identificat, dar solicită „un răspuns coordonat în întreaga industrie AI, furnizorii de cloud și factorii de decizie politică”.
Atacurile de distilare vin într-un moment în care exporturile americane de cipuri în China sunt încă intens dezbătute. Luna trecută, administrația Trump a permis oficial companiilor americane precum Nvidia să exporte cipuri AI avansate (cum ar fi H200) în China. Criticii au argumentat că această relaxare a controalelor la export crește capacitatea de calcul AI a Chinei într-un moment critic în cursa globală pentru dominația AI.
Anthropic spune că amploarea extracției efectuate de DeepSeek, MiniMax și Moonshot „necesită acces la cipuri avansate”.
„Atacurile de distilare, prin urmare, întăresc rațiunea de a fi a controalelor la export: accesul restricționat la cipuri limitează atât instruirea directă a modelului, cât și amploarea distilării ilicite”, conform blogului Anthropic.
Dmitri Alperovitch, președintele think-tank-ului Silverado Policy Accelerator și co-fondator al CrowdStrike, a declarat pentru TechCrunch că nu este surprins să vadă aceste atacuri. „A fost clar de ceva vreme că o parte din motivul progresului rapid al modelelor AI chineze a fost furtul prin distilarea modelelor americane de frontieră. Acum știm acest lucru cu certitudine”, a spus Alperovitch. „Acest lucru ar trebui să ne ofere motive și mai convingătoare pentru a refuza să vindem orice cipuri AI oricăreia dintre aceste [companii], ceea ce le-ar avantaja și mai mult.”
Anthropic a mai spus că distilarea nu amenință doar subminarea dominației americane în domeniul IA, ci ar putea crea și riscuri pentru securitatea națională.
„Anthropic și alte companii americane construiesc sisteme care împiedică actorii statali și non-statali să folosească IA pentru, de exemplu, a dezvolta arme biologice sau a efectua activități cibernetice rău intenționate”, se arată în postarea de pe blogul Anthropic. „Modelele construite prin distilare ilicită este puțin probabil să păstreze aceste garanții, ceea ce înseamnă că capacitățile periculoase pot prolifera cu multe protecții eliminate complet.”
Anthropic a subliniat că guvernele autoritare desfășoară IA de frontieră pentru lucruri precum „operațiuni cibernetice ofensive, campanii de dezinformare și supraveghere în masă”, un risc care este multiplicat dacă aceste modele sunt open-source.
TechCrunch a contactat DeepSeek, MiniMax și Moonshot pentru comentarii.

