Anthropic dezvoltă o Inteligență Artificială prea periculoasă pentru public
James Titcomb Miercuri, 8 Aprilie 2026 la 18:43 EEST
Modelul Claude Mythos Preview al Anthropic a descoperit erori în toate cele mai populare browsere web și sisteme de operare - Patrick Sison/AP Photo
Startup-ul din Silicon Valley, Anthropic, a restricționat accesul la cel mai recent sistem AI, spunând că este în prezent prea periculos pentru a fi lansat publicului.
Compania a declarat că modelul său Claude Mythos Preview era atât de bun la găsirea de defecte critice de securitate în sistemele informatice, încât ar putea "remodela securitatea cibernetică", creând haos dacă ar ajunge pe mâini greșite.
Sistemul a descoperit deja mii de vulnerabilități de securitate, inclusiv erori în toate cele mai populare browsere web și sisteme de operare.
Anthropic a declarat că oferă acces la sistem unui grup dintre cele mai mari companii de tehnologie din lume - inclusiv Amazon, Apple și Microsoft - în baza unui acord numit Project Glasswing, astfel încât acestea să poată remedia orice defecte de securitate pe care le-ar descoperi.
Compania a declarat că nu intenționează să facă Claude Mythos Preview disponibil publicului larg, dar speră să lanseze sisteme similare de puternice în viitor.
Hacking-ul este văzut ca un risc major din partea sistemelor AI avansate, datorită priceperii tehnologiei în scrierea codului informatic și a capacității sale de a automatiza atacurile.
Anthropic a declarat că Mythos a permis persoanelor fără pregătire în securitate să descopere defecte majore în software. A spus: "Ingineri de la Anthropic fără pregătire formală în securitate au cerut Mythos Preview să găsească vulnerabilități de execuție a codului de la distanță peste noapte și s-au trezit a doua zi dimineața cu un exploit complet, funcțional."
Inginerii au descoperit, de asemenea, că modelul a fost capabil să găsească modalități creative de a eluda controalele pe care compania le-a impus asupra sa. Într-un caz, a dezvoltat o modalitate de a edita fișiere la care i se interzisese accesul și apoi a luat măsuri pentru a ascunde acest comportament de la evaluatorii umani.
Sam Bowman, cercetător la Anthropic, a declarat că a primit un e-mail de la o versiune a sistemului căreia i-a fost blocat accesul la internet.
Logan Graham, șeful "echipei roșii" a Anthropic care lucrează la testarea sistemelor AI, a spus: "Capacitățile dintr-un model ca acesta ar putea face rău dacă ar ajunge pe mâini greșite și, prin urmare, nu vom lansa acest model pe scară largă."
Printre defectele pe care le-a găsit s-a numărat o eroare veche de 27 de ani în OpenBSD, un sistem de operare conceput pentru sisteme extrem de securizate, care, după cum a spus, ar putea permite hackerilor să "doboare potențial rețele corporative sau servicii de bază de internet".
Sistemul reprezintă un salt înainte în capacitățile de hacking, parțial deoarece este capabil să descopere mai multe erori care ar putea fi inofensive de la sine și să le conecteze într-un mod care poate bloca sau obține acces la un sistem.
Project Glasswing va permite celor mai mari companii de tehnologie din lume să ruleze Mythos pe propriile sisteme, descoperind defecte și remediindu-le. Acest lucru este pentru a permite sistemelor pe care se bazează internetul și economiile să se pregătească pentru probabilitatea ca instrumente AI la fel de puternice ca Mythos să apară în altă parte în viitor.
Anthropic a declarat că a purtat "discuții continue" cu guvernul SUA despre Mythos. Compania a fost desemnată un "risc al lanțului de aprovizionare" luna trecută într-o dispută cu Pete Hegseth, secretarul american al apărării, din cauza refuzului Anthropic de a-și lăsa tehnologia să fie folosită pentru arme autonome. Anthropic a obținut o interdicție temporară asupra ordinului luna trecută.
S-a constatat că țări precum Coreea de Nord și Iran folosesc sisteme AI pentru a efectua atacuri cibernetice.

