Google Dezvăluie TurboQuant, un Nou Algoritm AI de Compresie a Memoriei - Internetul Îl Compară cu 'Pied Piper'
Dacă cercetătorii Google AI ar avea simțul umorului, ar fi numit TurboQuant, noul algoritm ultra-eficient de compresie a memoriei AI anunțat marți, "Pied Piper" - sau, cel puțin, așa crede internetul.
Gluma este o referire la startup-ul fictiv Pied Piper, care a fost punctul central al serialului TV "Silicon Valley" de la HBO, care a rulat din 2014 până în 2019. Serialul a urmărit fondatorii startup-ului în timp ce navigau în ecosistemul tehnologic, confruntându-se cu provocări precum concurența din partea companiilor mai mari, strângerea de fonduri, probleme de tehnologie și produs și chiar (spre deliciul nostru) uimind jurații la o versiune fictivă a TechCrunch Disrupt. Tehnologia de vârf a Pied Piper în serialul TV a fost un algoritm de compresie care a redus considerabil dimensiunile fișierelor cu o compresie aproape fără pierderi.
Noul TurboQuant de la Google Research se referă, de asemenea, la compresie extremă fără pierderi de calitate, dar aplicată unui blocaj central în sistemele AI. Prin urmare, comparațiile.
Google Research a descris tehnologia ca pe o modalitate nouă de a reduce memoria de lucru a AI fără a afecta performanța. Metoda de compresie, care utilizează o formă de cuantificare vectorială pentru a elimina blocajele cache în procesarea AI, ar permite în esență AI să rețină mai multe informații ocupând mai puțin spațiu și menținând acuratețea, potrivit cercetătorilor. Aceștia intenționează să își prezinte descoperirile la conferința ICLR 2026 de luna viitoare, împreună cu cele două metode care fac posibilă această compresie: metoda de cuantificare PolarQuant și o metodă de antrenament și optimizare numită QJL.
Înțelegerea matematicii implicate aici este ceva ce cercetătorii și informaticienii ar putea fi capabili să facă, dar rezultatele entuziasmează întreaga industrie tehnologică. Dacă este implementat cu succes în lumea reală, TurboQuant ar putea face ca AI să fie mai ieftin de rulat, reducând "memoria de lucru" a runtime-ului său - cunoscută sub numele de cache-ul KV - cu "cel puțin 6x".
Unii, precum CEO-ul Cloudflare, Matthew Prince, numesc chiar acest moment drept momentul DeepSeek al Google - o referire la câștigurile de eficiență generate de modelul chinezesc AI, care a fost antrenat la o fracțiune din costul rivalilor săi pe cipuri mai proaste, rămânând în același timp competitiv în ceea ce privește rezultatele.
Cu toate acestea, merită remarcat faptul că TurboQuant nu a fost încă implementat pe scară largă; este încă o descoperire de laborator în acest moment. Asta face ca comparațiile cu ceva precum DeepSeek, sau chiar cu Pied Piper-ul fictiv, să fie mai dificile. La televizor, tehnologia Pied Piper urma să schimbe radical regulile de calcul. Între timp, TurboQuant ar putea duce la câștiguri de eficiență și la sisteme care necesită mai puțină memorie în timpul inferenței. Dar nu ar rezolva neapărat deficitul mai larg de RAM determinat de AI, având în vedere că vizează doar memoria de inferență, nu și antrenamentul - care continuă să necesite cantități masive de RAM.

