O schiță de postare pe blog lăsată într-o memorie cache de date nesecurizată a dezvăluit un nou nivel de model numit Capybara, despre care Anthropic spune că este mai capabil decât orice a construit până acum, compania semnalând riscuri de securitate cibernetică "fără precedent".
Anthropic testează cel mai puternic model AI pe care l-a construit vreodată, iar lumea nu trebuia să știe încă. O scurgere de date raportată de Fortune joi a dezvăluit că laboratorul AI din spatele lui Claude a antrenat un nou model numit "Mythos", pe care îl descrie intern ca fiind "de departe cel mai puternic model AI pe care l-am dezvoltat vreodată".
Modelul a fost descoperit într-o schiță de postare pe blog lăsată într-o memorie cache de date nesecurizată, căutabilă public, alături de aproape 3.000 de alte active nepublicate, conform cercetătorilor în securitate cibernetică care au revizuit materialul.
Anthropic a confirmat existența modelului după interogarea Fortune, numindu-l "o schimbare majoră" în performanța AI și "cel mai capabil pe care l-am construit până în prezent". Compania a spus că este testat de "clienți cu acces anticipat" și a recunoscut că o "eroare umană" în sistemul său de gestionare a conținutului a cauzat scurgerea.
Schița de postare pe blog a introdus un nou nivel de model numit "Capybara", descris ca fiind mai mare și mai capabil decât modelele Opus existente ale Anthropic, care erau anterior cele mai puternice ale sale.
"Comparativ cu cel mai bun model anterior, Claude Opus 4.6, Capybara obține scoruri dramatic mai mari la testele de codare software, raționament academic și securitate cibernetică, printre altele", se arată în schiță.
Dimensiunea securității cibernetice este cea care contează cel mai mult pentru industria cripto. Schița de postare pe blog a spus că modelul "prezintă riscuri de securitate cibernetică fără precedent", o încadrare care are implicații directe pentru securitatea blockchain, auditarea contractelor inteligente și cursa înarmărilor escaladatoare dintre atacatori și apărători în DeFi.
Doar în această săptămână, Ripple a anunțat o revizuire a securității bazată pe inteligență artificială pentru XRP Ledger, după ce o echipă roșie asistată de inteligență artificială a descoperit peste 10 vulnerabilități în baza sa de cod de 13 ani. Ethereum a lansat un hub dedicat de securitate post-cuantică, susținut de opt ani de cercetare. Iar stablecoinul Resolv și-a pierdut paritatea după ce un atacator a exploatat un contract de batere cu verificări de oracol și control al accesului cu o singură cheie, genul de eșec de infrastructură pe care instrumentele AI mai capabile l-ar putea identifica potențial înainte ca un atacator să o facă, sau să o exploateze mai repede decât pot răspunde apărătorii.
Pentru piața tokenurilor AI, scurgerea ridică o întrebare diferită. Rețeaua descentralizată Bittensor a lansat recent Covenant-72B, un model care concurează cu Llama 2 70B de la Meta, declanșând o creștere de 90% a TAO și conducând tokenurile subnet la o capitalizare de piață combinată de 1,47 miliarde de dolari. O "schimbare majoră" de la un laborator centralizat precum Anthropic resetează benchmark-ul pe care proiectele AI descentralizate trebuie să îl atingă. Distanța competitivă dintre ceea ce poate construi un laborator corporativ bine finanțat și ceea ce poate produce o rețea fără permisiune tocmai a devenit mai mare.
Anthropic a spus că "este deliberat" cu privire la lansarea modelului, având în vedere capacitățile sale. Schița de blog a menționat că modelul este costisitor de rulat și nu este încă gata pentru disponibilitate generală. Compania a eliminat accesul public la memoria cache de date după ce Fortune a contactat-o.
Scurgerea în sine este propria sa poveste de avertizare. O companie care construiește ceea ce descrie drept un model AI cu capacități de securitate cibernetică fără precedent a lăsat anunțul acelui model într-un magazin de date nesecurizat, căutabil public, din cauza unei erori umane. Ironia nu are nevoie de elaborare.

