Multiverse Computing lansează modele AI comprimate pentru publicul larg.
În contextul în care ratele de neplată ale companiilor private ating 9,2% – cel mai ridicat nivel din ultimii ani – firma de capital de risc Lux Capital a sfătuit recent companiile care se bazează pe AI să obțină confirmarea scrisă a angajamentelor privind capacitatea de calcul. Având în vedere instabilitatea financiară care afectează lanțul de aprovizionare AI, Lux a avertizat că un acord verbal nu este suficient.
Dar există o altă opțiune: renunțarea completă la infrastructura de calcul externă. Modelele AI mai mici, care rulează direct pe dispozitivele utilizatorilor – fără centre de date, furnizori cloud sau risc de contrapartidă – devin suficient de bune pentru a fi luate în considerare. Iar Multiverse Computing se alătură acestei tendințe.
Startup-ul spaniol a avut până acum un profil mai discret decât unii dintre competitorii săi, dar pe măsură ce cererea pentru eficiența AI crește, acest lucru se schimbă. După comprimarea modelelor de la laboratoare AI importante, inclusiv OpenAI, Meta, DeepSeek și Mistral AI, a lansat atât o aplicație care demonstrează capacitățile modelelor sale comprimate, cât și un portal API – o poartă de acces care permite dezvoltatorilor să acceseze și să construiască cu aceste modele – care le face mai larg disponibile.
Aplicația CompactifAI, care poartă același nume cu tehnologia de compresie inspirată de quantum a Multiverse, este un instrument de chat AI similar cu ChatGPT sau Le Chat de la Mistral. Puneți o întrebare, iar modelul răspunde. Diferența este că Multiverse a încorporat Gilda, un model atât de mic încât poate rula local și offline, potrivit companiei.
Pentru utilizatorii finali, aceasta este o avanpremieră a AI la margine, cu date care nu părăsesc dispozitivele lor și nu necesită o conexiune. Dar există o avertizare: dispozitivele lor mobile trebuie să aibă suficient RAM și spațiu de stocare. Dacă nu au – și multe iPhone-uri mai vechi nu au – aplicația revine la modelele bazate pe cloud prin API.
Rutarea între procesarea locală și cloud este gestionată automat de un sistem pe care Multiverse l-a numit Ash Nazg, al cărui nume va suna familiar fanilor Tolkien, deoarece face referire la inscripția de pe Inelul Unic din „Stăpânul Inelelor”. Dar atunci când aplicația se conectează la cloud, își pierde principalul avantaj de confidențialitate în acest proces.
Aceste limitări înseamnă că CompactifAI nu este încă pregătită pentru adoptarea în masă de către clienți, deși este posibil ca acesta să nu fi fost niciodată scopul. Potrivit datelor de la Sensor Tower, aplicația a avut mai puțin de 5.000 de descărcări în ultima lună. Adevărata țintă sunt companiile.
Astăzi, Multiverse lansează un portal API self-service care oferă dezvoltatorilor și întreprinderilor acces direct la modelele sale comprimate – fără a fi nevoie de AWS Marketplace.
„Portalul API CompactifAI oferă acum dezvoltatorilor acces direct la modele comprimate, cu transparența și controlul necesare pentru a le rula în producție”, a declarat CEO-ul Enrique Lizaso într-un comunicat. Monitorizarea utilizării în timp real este una dintre caracteristicile cheie ale API-ului, și asta nu este o coincidență.
Alături de avantajele potențiale ale implementării la margine, costurile mai mici de calcul sunt unul dintre principalele motive pentru care companiile iau în considerare modelele mai mici ca alternativă la modelele lingvistice mari (LLM).
Ajută, de asemenea, faptul că modelele mici sunt mai puțin limitate decât erau înainte. Mai devreme în această săptămână, Mistral și-a actualizat familia de modele mici cu lansarea Mistral Small 4, despre care spune că este optimizat simultan pentru chat general, codare, sarcini agentice și raționament. Compania franceză a lansat, de asemenea, Forge, un sistem care permite întreprinderilor să construiască modele personalizate, inclusiv modele mici pentru care pot alege compromisurile pe care cazurile lor de utilizare le pot tolera cel mai bine.
Rezultatele recente ale Multiverse sugerează, de asemenea, că decalajul față de LLM-uri se reduce. Cel mai recent model comprimat al său, HyperNova 60B 2602, este construit pe gpt-oss-120b – un model OpenAI al cărui cod de bază este disponibil public. Compania susține că oferă acum răspunsuri mai rapide la un cost mai mic decât originalul din care a fost derivat, un avantaj care contează în special pentru fluxurile de lucru de codare agentice, unde AI finalizează în mod autonom sarcini complexe de programare în mai mulți pași.
A face modelele suficient de mici pentru a funcționa pe dispozitive mobile, rămânând în același timp utile, este o provocare majoră. Apple Intelligence a ocolit această problemă combinând un model pe dispozitiv și un model cloud. Aplicația CompactifAI a Multiverse poate, de asemenea, să direcționeze cererile către gpt-oss-120b prin API, dar scopul său principal este de a arăta că modelele locale precum Gilda și înlocuitorii săi viitori au avantaje care depășesc economiile de costuri.
Pentru lucrătorii din domenii critice, un model care poate rula local și fără a se conecta la cloud oferă mai multă confidențialitate și rezistență. Dar valoarea mai mare constă în cazurile de utilizare comercială pe care le poate debloca – de exemplu, încorporarea AI în drone, sateliți și alte setări unde conectivitatea nu poate fi considerată de la sine înțeles.
Compania deservește deja peste 100 de clienți globali, inclusiv Banca Canadei, Bosch și Iberdrola, dar extinderea bazei de clienți ar putea ajuta la deblocarea mai multor finanțări. După ce a strâns o rundă Series B de 215 milioane de dolari anul trecut, se zvonește acum că strânge o nouă rundă de finanțare de 500 de milioane de euro la o evaluare de peste 1,5 miliarde de euro.

