Google avertizează: hackerii au folosit inteligența artificială pentru a dezvolta o vulnerabilitate majoră de securitate.
Infractorii cibernetici au fost recent prinși folosind o vulnerabilitate zero-day despre care se crede că a fost descoperită și dezvoltată de inteligența artificială, a anunțat Google luni.
Anunțul vine în contextul în care companii majore de inteligență artificială, inclusiv Anthropic și OpenAI, au început să testeze modele mai noi, care pot găsi și exploata vulnerabilități software critice mai bine decât majoritatea oamenilor. Cercetătorii Google Threat Intelligence Group au detaliat dezvoltarea într-un raport publicat luni.
Vulnerabilitățile zero-day sunt considerate cel mai grav tip de defect de securitate, deoarece nu sunt detectate de companiile de securitate și nu au remedieri cunoscute. Raportul a menționat că aceasta a fost prima dată când Google a văzut dovezi că IA este utilizată pentru a dezvolta aceste tipuri de vulnerabilități.
Google a concluzionat că modelul Claude Mythos de la Anthropic - care a găsit deja mii de vulnerabilități pe toate sistemele de operare majore și browserele web - cel mai probabil nu a fost utilizat pentru a dezvolta vulnerabilitatea zero-day.
Mythos, împreună cu modelul GPT-5.5-Cyber nou anunțat de OpenAI, sunt o prioritate pentru administrația Trump, care organizează întâlniri continue cu grupurile din industrie pentru a discuta despre potențiala reglementare și verificare a modelelor de frontieră.
Google a raportat constatările sale firmei neidentificate afectate de vulnerabilitate înainte de a publica raportul. Compania a lansat apoi un patch pentru a remedia problema.
John Hultquist, analist șef la Google Threat Intelligence Group, a declarat într-o declarație că constatările au clarificat că cursa pentru utilizarea IA pentru a găsi vulnerabilități de rețea a „început deja”.
„Pentru fiecare zero-day pe care îl putem urmări până la IA, probabil că există mult mai multe”, a spus Hultquist. „Actorii amenințătoare folosesc IA pentru a spori viteza, scara și sofisticarea atacurilor lor.”
Cercetătorii de amenințări au observat în ultimele luni că hackerii folosesc din ce în ce mai mult IA pentru a-și îmbunătăți atacurile. În noiembrie, Anthropic a declarat că hackerii susținuți de Beijing au folosit IA pentru a-și automatiza complet atacurile cibernetice pentru prima dată.
Raportul Google Threat Intelligence Group detaliază, de asemenea, eforturile grupurilor de hacking legate de Rusia de a utiliza modele AI pentru a viza rețelele ucrainene cu malware, în timp ce grupul de hacking guvernamental nord-coreean APT45 a folosit tehnologii AI pentru a rafina și a extinde metodele cibernetice.
Lansarea modelelor AI hiper-avansate a intensificat preocupările că tehnologia ar putea fi în curând cooptată de criminali și adversari pentru a găsi și lansa atacuri cibernetice la o scară nemaivăzută.
Anthropic și OpenAI au permis până acum doar unui mic grup de cercetători, companii de tehnologie și agenții guvernamentale să testeze modelele lor AI.
„Lansarea etapizată a fost de fapt pentru a crea ceea ce numim avantajul apărătorilor și credem că acea fereastră se află undeva în intervalul de luni - nu ani”, a declarat Rob Bair, șeful politicii cibernetice la Anthropic, săptămâna trecută la AI+Expo din Washington.

