Compania AI Anthropic dezvoltă și a început testarea cu clienți cu acces anticipat a unui nou model AI, mai capabil decât oricare dintre cele lansate anterior, a declarat compania, în urma unei scurgeri de date care a dezvăluit existența modelului.
Un purtător de cuvânt al Anthropic a declarat că noul model reprezintă „o schimbare radicală” în performanța AI și este „cel mai capabil pe care l-am construit până în prezent”. Compania a declarat că modelul este testat în prezent de „clienți cu acces anticipat”.
Descrieri ale modelului au fost stocate din neatenție într-o memorie cache de date accesibilă public și au fost revizuite de Fortune.
O schiță a unei postări de blog, care era disponibilă într-un depozit de date nesecurizat și accesibil publicului, înainte de joi seara, a precizat că noul model se numește „Claude Mythos” și că compania crede că prezintă riscuri cibernetice fără precedent.
Același cache de documente nesecurizate, descoperibile public, a dezvăluit detalii despre un summit planificat, exclusiv pe bază de invitație, al CEO-urilor din Europa, care face parte din eforturile companiei de a vinde modelele sale AI către clienți corporativi mari.
Laboratorul AI a lăsat materialul, inclusiv ceea ce părea a fi o schiță a unei postări de blog care anunța un nou model, într-un lac de date public, nesecurizat, conform documentelor localizate și revizuite separat de Roy Paz, cercetător senior în securitate AI la LayerX Security, o companie de securitate a computerelor și rețelelor, și Alexandre Pauwels, cercetător în securitate cibernetică la Universitatea din Cambridge.
În total, păreau să fie aproape 3.000 de active legate de blogul Anthropic care nu fuseseră publicate anterior pe site-urile de știri sau cercetare ale companiei, dar care erau totuși accesibile publicului în această memorie cache de date, potrivit lui Pauwels, pe care Fortune l-a rugat să evalueze și să revizuiască materialul.
După ce a fost informată de Fortune despre scurgerea de date joi, Anthropic a eliminat posibilitatea publicului de a căuta în magazinul de date și de a prelua documente din acesta. Într-o declarație furnizată Fortune, Anthropic a recunoscut că o „eroare umană” în configurația sistemului său de gestionare a conținutului a dus la accesibilitatea schiței postării de blog. A descris materialul nepublicat care a fost lăsat într-un depozit de date nesecurizat și accesibil publicului ca fiind „schițe preliminare ale conținutului luat în considerare pentru publicare”.
Pe lângă referirea la Mythos, schița postării de blog a discutat și despre un nou nivel de modele AI despre care spune că se va numi „Capybara”. În document, Anthropic spune: „„Capybara” este un nume nou pentru un nou nivel de model: mai mare și mai inteligent decât modelele noastre Opus – care au fost, până acum, cele mai puternice ale noastre.”
Capybara și Mythos par să se refere la același model de bază.
În prezent, Anthropic comercializează fiecare dintre modelele sale în trei dimensiuni diferite: cele mai mari și mai capabile versiuni de model sunt marcate Opus, în timp ce versiuni ușor mai rapide și mai ieftine, dar mai puțin capabile, sunt marcate Sonnet, iar cele mai mici, mai ieftine și mai rapide se numesc Haiku.
Cu toate acestea, în postarea de blog, Anthropic descrie Capybara ca un nou nivel de model, care este chiar mai mare și mai capabil decât Opus, dar și mai scump.
„În comparație cu cel mai bun model anterior al nostru, Claude Opus 4.6, Capybara obține scoruri dramatic mai mari la testele de codare software, raționament academic și securitate cibernetică, printre altele”, a spus compania în blog.
Documentul mai spunea că compania a finalizat antrenamentul „Claude Mythos”, pe care schița postării de blog l-a descris ca fiind „de departe cel mai puternic model AI pe care l-am dezvoltat vreodată”.
Ca răspuns la întrebările despre schița postării de blog, compania a recunoscut că antrenează și testează un nou model. „Dezvoltăm un model cu scop general cu progrese semnificative în raționament, codare și securitate cibernetică”, a spus un purtător de cuvânt al Anthropic. „Având în vedere puterea capacităților sale, suntem deliberat cu privire la modul în care îl lansăm. Ca practică standard în industrie, lucrăm cu un grup restrâns de clienți cu acces anticipat pentru a testa modelul. Considerăm acest model o schimbare radicală și cel mai capabil pe care l-am construit până în prezent.”
Documentul pe care Fortune și experții în securitate cibernetică l-au revizuit constă din date structurate pentru o pagină web, complet cu titluri și o dată de publicare, sugerând că face parte dintr-o lansare planificată a produsului. Acesta prezintă o strategie prudentă de lansare a modelului, începând cu un grup mic de utilizatori cu acces anticipat. Schița blogului menționează că modelul este costisitor de rulat și nu este încă pregătit pentru lansarea generală.
Riscuri cibernetice noi semnificative
Noul model AI prezintă riscuri cibernetice semnificative, conform documentului scurs.
„În pregătirea lansării Claude Capybara, dorim să acționăm cu precauție sporită și să înțelegem riscurile pe care le prezintă – chiar și dincolo de ceea ce învățăm în propriile noastre teste. În special, dorim să înțelegem potențialele riscuri pe termen scurt ale modelului în domeniul securității cibernetice – și să împărtășim rezultatele pentru a ajuta apărătorii cibernetici să se pregătească”, se arată în document.
Anthropic pare să fie deosebit de îngrijorat de implicațiile de securitate cibernetică ale modelului, menționând că sistemul este „în prezent cu mult înaintea oricărui alt model AI în capacități cibernetice” și „prevestește un val viitor de modele care pot exploata vulnerabilități în moduri care depășesc cu mult eforturile apărătorilor”.
Cu alte cuvinte, Anthropic este îngrijorat de faptul că hackerii ar putea folosi modelul pentru a efectua atacuri cibernetice la scară largă.
Compania a declarat în schița blogului că, din cauza acestui risc, planul său pentru lansarea modelului se va concentra pe apărătorii cibernetici: „Îl lansăm cu acces anticipat organizațiilor, oferindu-le un avantaj în îmbunătățirea robusteței bazelor lor de cod împotriva valului iminent de exploit-uri bazate pe inteligență artificială.”
Cea mai recentă generație de modele de frontieră de la Anthropic și OpenAI a trecut un prag despre care companiile spun că prezintă noi riscuri de securitate cibernetică. În februarie, când OpenAI a lansat GPT-5.3-Codex, compania a declarat că este primul model pe care l-a clasificat drept „de înaltă capacitate” pentru sarcini legate de securitatea cibernetică în cadrul său de pregătire – și primul pe care l-a antrenat direct pentru a identifica vulnerabilități software.
Anthropic, între timp, a navigat riscuri similare cu Opus 4.6, lansat în aceeași săptămână. Modelul a demonstrat o capacitate de a scoate la iveală vulnerabilități necunoscute anterior în bazele de cod de producție, o capacitate pe care compania a recunoscut-o ca fiind cu dublă utilizare, ceea ce înseamnă că ar putea ajuta atât hackerii, cât și ajută apărătorii cibernetici să găsească și să închidă vulnerabilitățile din cod.
De asemenea, compania a raportat că grupuri de hacking, inclusiv cele legate de guvernul chinez, au încercat să exploateze Claude în atacuri cibernetice din lumea reală. Într-un caz documentat, Anthropic a descoperit că un grup sponsorizat de stat chinez derula deja o campanie coordonată folosind Claude Code pentru a se infiltra în aproximativ 30 de organizații – inclusiv companii de tehnologie, instituții financiare și agenții guvernamentale – înainte ca compania să o detecteze. În următoarele zece zile, Anthropic a investigat amploarea totală a operațiunii, a interzis conturile implicate și a notificat organizațiile afectate.
O retragere executivă exclusivă
Scurgerea de informații care nu sunt încă publice pare să provină dintr-o eroare din partea utilizatorilor sistemului de gestionare a conținutului (CMS) al companiei, care este software-ul folosit pentru a publica blogul public al companiei, conform profesioniștilor în securitate cibernetică.
Activele digitale create folosind sistemul de gestionare a conținutului sunt setate în mod implicit ca publice și primesc de obicei o adresă URL accesibilă public la încărcare – cu excepția cazului în care utilizatorul modifică în mod explicit o setare, astfel încât aceste active să fie păstrate private.
Ca urmare, o memorie cache mare de imagini, fișiere PDF și fișiere audio par să fi fost publicate în mod eronat la o adresă URL nesecurizată și accesibilă public prin intermediul sistemului de gestionare a conținutului de pe piață.
Anthropic a recunoscut într-o declarație pentru Fortune că „o problemă cu unul dintre instrumentele noastre CMS externe a dus la accesibilitatea schiței de conținut”. A atribuit această problemă unei „erori umane”.
Multe dintre documente păreau a fi active aruncate sau neutilizate pentru postări de blog anterioare, cum ar fi imagini, bannere și sigle. Cu toate acestea, mai multe păreau a fi documente care ar fi trebuit să fie private sau interne. De exemplu, un activ are un titlu care descria „concediul parental” al unui angajat.
Documentele includeau și un PDF care conținea informații despre o viitoare retragere exclusiv pe bază de invitație pentru directorii executivi ai companiilor europene care va avea loc în Marea Britanie și la care va participa CEO-ul Anthropic, Dario Amodei. Numele celorlalți participanți nu sunt listate, dar sunt descrise ca fiind cei mai influenți lideri de afaceri din Europa.
Retragerea de două zile este descrisă ca o „întâlnire intimă” pentru a se angaja într-o „conversație atentă” într-un conac din secolul al XVIII-lea transformat în hotel și spa din mediul rural englez. Documentul spune că participanții vor auzi de la parlamentari și factori de decizie despre modul în care întreprinderile adoptă inteligența artificială și vor experimenta capabilități Claude nelansate.
Un purtător de cuvânt al Anthropic a declarat pentru Fortune că evenimentul „face parte dintr-o serie continuă de evenimente pe care le-am găzduit în ultimul an. Așteptăm cu nerăbdare să găzduim lideri de afaceri europeni pentru a discuta despre viitorul AI.”

