MiniMax-M2 este noul rege al modelelor lingvistice mari (LLM) open source, în special pentru utilizarea agentică a instrumentelor.
Fiți atenți, DeepSeek și Qwen! Există un nou rege al modelelor lingvistice mari (LLM) open source, mai ales când vine vorba de ceva ce întreprinderile apreciază din ce în ce mai mult: utilizarea agentică a instrumentelor - adică capacitatea de a folosi alte capacități software, cum ar fi căutarea pe web sau aplicații personalizate - fără prea multă îndrumare umană. Acest model nu este altul decât MiniMax-M2, cel mai recent LLM de la startup-ul chinez cu același nume.
Și într-o mare victorie pentru întreprinderile din întreaga lume, modelul este disponibil sub o licență MIT permisivă, prietenoasă pentru întreprinderi, ceea ce înseamnă că este pus la dispoziția dezvoltatorilor în mod gratuit pentru a-l prelua, implementa, reantrena și utiliza după cum consideră de cuviință - chiar și în scopuri comerciale. Acesta poate fi găsit pe Hugging Face, GitHub și ModelScope, precum și prin API-ul MiniMax aici. De asemenea, acceptă standardele API OpenAI și Anthropic, facilitând clienților startup-urilor AI proprietare să își schimbe modelele cu API-ul MiniMax, dacă doresc.
Conform evaluărilor independente efectuate de Artificial Analysis, o organizație terță de cercetare și benchmarking a modelelor AI generative, M2 se află acum pe primul loc printre toate sistemele open-weight la nivel mondial în Indexul de Inteligență - o măsură compozită a raționamentului, codificării și performanței în execuția sarcinilor. În benchmark-urile agentice care măsoară cât de bine un model poate planifica, executa și utiliza instrumente externe - abilități care alimentează asistenții de codare și agenții autonomi - rezultatele raportate de MiniMax, urmând metodologia Artificial Analysis, arată τ²-Bench 77.2, BrowseComp 44.0 și FinSearchComp-global 65.5. Aceste scoruri îl plasează la sau aproape de nivelul sistemelor proprietare de top, cum ar fi GPT-5 (thinking) și Claude Sonnet 4.5, făcând din MiniMax-M2 cel mai performant model deschis lansat până în prezent pentru sarcini agentice și de tool-calling din lumea reală.
Ce înseamnă pentru întreprinderi și cursa AI
Construit în jurul unei arhitecturi eficiente Mixture-of-Experts (MoE), MiniMax-M2 oferă capabilități de ultimă generație pentru fluxurile de lucru agentice și ale dezvoltatorilor, rămânând în același timp practic pentru implementarea în întreprinderi. Pentru factorii de decizie tehnici, lansarea marchează un punct de cotitură important pentru modelele deschise în mediile de afaceri. MiniMax-M2 combină raționamentul la nivel de frontieră cu o amprentă de activare gestionabilă - doar 10 miliarde de parametri activi din totalul de 230 de miliarde. Acest design permite întreprinderilor să opereze raționamente avansate și sarcini de lucru de automatizare pe mai puține GPU-uri, obținând rezultate aproape de cele mai bune din domeniu, fără cerințele de infrastructură sau costurile de licențiere asociate sistemelor proprietare de frontieră.
Datele Artificial Analysis arată că punctele forte ale MiniMax-M2 depășesc scorurile brute de inteligență. Modelul conduce sau urmează îndeaproape sistemele proprietare de top, cum ar fi GPT-5 (thinking) și Claude Sonnet 4.5, în benchmark-urile pentru codificare end-to-end, raționament și utilizarea instrumentelor agentice. Performanța sa în τ²-Bench, SWE-Bench și BrowseComp indică avantaje deosebite pentru organizațiile care depind de sisteme AI capabile să planifice, să execute și să verifice fluxuri de lucru complexe - funcții cheie pentru instrumentele agentice și de dezvoltare din interiorul mediilor de întreprindere. Așa cum a postat inginerul LLM Pierre-Carl Langlais, alias Alexander Doria, pe X: "MiniMax face un argument pentru stăpânirea tehnologiei end-to-end pentru a obține o automatizare agentică reală".
Design compact, performanță scalabilă
Arhitectura tehnică a MiniMax-M2 este un model sparse Mixture-of-Experts cu 230 de miliarde de parametri totali și 10 miliarde activi per inferență. Această configurație reduce semnificativ latența și cerințele de calcul, menținând în același timp o inteligență generală largă. Designul permite bucle agent responsive - compile–run–test sau browse–retrieve–cite cycles - care se execută mai rapid și mai predictibil decât modelele mai dense. Pentru echipele de tehnologie ale întreprinderilor, acest lucru înseamnă scalare mai ușoară, costuri cloud mai mici și frecare redusă la implementare. Conform Artificial Analysis, modelul poate fi servit eficient pe doar patru GPU-uri NVIDIA H100 la precizia FP8, o configurație bine la îndemâna organizațiilor de dimensiuni medii sau a clusterelor AI departamentale.
Leadership în benchmarking pe fluxuri de lucru agentice și de codificare
Suite-ul de benchmarking al MiniMax evidențiază o performanță puternică în lumea reală în mediile de dezvoltator și agent. Figura de mai jos, lansată cu modelul, compară MiniMax-M2 (în roșu) cu mai multe modele proprietare și deschise de top, inclusiv GPT-5 (thinking), Claude Sonnet 4.5, Gemini 2.5 Pro și DeepSeek-V3.2.
MiniMax-M2 atinge o performanță de top sau aproape de top în multe categorii:
SWE-bench Verified: 69.4 - aproape de 74.9 al GPT-5 ArtifactsBench: 66.8 - peste Claude Sonnet 4.5 și DeepSeek-V3.2 τ²-Bench: 77.2 - apropiindu-se de 80.1 al GPT-5 GAIA (doar text): 75.7 - depășind DeepSeek-V3.2 BrowseComp: 44.0 - notabil mai puternic decât alte modele deschise FinSearchComp-global: 65.5 - cel mai bun dintre sistemele open-weight testate
Aceste rezultate arată capacitatea MiniMax-M2 în executarea de sarcini complexe, augmentate cu instrumente, în mai multe limbi și medii - abilități din ce în ce mai relevante pentru suport automatizat, cercetare și dezvoltare și analiză de date în interiorul întreprinderilor.
O prezentare puternică în Indexul de Inteligență al Artificial Analysis
Profilul general de inteligență al modelului este confirmat în cel mai recent Index de Inteligență v3.0 al Artificial Analysis, care agregă performanța în zece benchmark-uri de raționament, inclusiv MMLU-Pro, GPQA Diamond, AIME 2025, IFBench și τ²-Bench Telecom.
MiniMax-M2 a obținut 61 de puncte, clasându-se ca cel mai înalt model open-weight la nivel global și urmând îndeaproape GPT-5 (high) și Grok 4. Artificial Analysis a evidențiat echilibrul modelului între acuratețea tehnică, profunzimea raționamentului și inteligența aplicată în toate domeniile. Pentru utilizatorii de întreprindere, această consistență indică o fundație de model fiabilă, potrivită pentru integrarea în ingineria software, suportul pentru clienți sau sistemele de automatizare a cunoștințelor.
Conceput pentru dezvoltatori și sisteme agentice
MiniMax a proiectat M2 pentru fluxuri de lucru end-to-end pentru dezvoltatori, permițând editarea de coduri pe mai multe fișiere, testarea automatizată și repararea regresiei direct în interiorul mediilor de dezvoltare integrate sau conducte CI/CD. Modelul excelează, de asemenea, în planificarea agentică - gestionând sarcini care combină căutarea pe web, execuția de comenzi și apeluri API, menținând în același timp trasabilitatea raționamentului. Aceste capabilități fac MiniMax-M2 deosebit de valoros pentru întreprinderile care explorează agenți de dezvoltare autonomi, asistenți de analiză a datelor sau instrumente operaționale augmentate cu AI. Benchmark-uri precum Terminal-Bench și BrowseComp demonstrează capacitatea modelului de a se adapta la date incomplete și de a se recupera cu grație de la erori intermediare, îmbunătățind fiabilitatea în setările de producție.
Raționament intercalat și utilizare structurată a instrumentelor
Un aspect distinctiv al MiniMax-M2 este formatul său de raționament intercalat, care menține urme vizibile de raționament între etichetele .... Acest lucru permite modelului să planifice și să verifice pașii în mai multe schimburi, o caracteristică critică pentru raționamentul agentic. MiniMax recomandă păstrarea acestor segmente atunci când se transmite istoricul conversației pentru a păstra logica și continuitatea modelului. Compania oferă, de asemenea, un Ghid de Apelare a Instrumentelor pe Hugging Face, detaliind modul în care dezvoltatorii pot conecta instrumente externe și API-uri prin apeluri structurate în stil XML. Această funcționalitate permite MiniMax-M2 să servească drept nucleu de raționament pentru cadre agent mai mari, executând sarcini dinamice, cum ar fi căutarea, recuperarea și calculul prin funcții externe.
Acces open source și opțiuni de implementare în întreprinderi
Întreprinderile pot accesa modelul prin intermediul API-ului MiniMax Open Platform și al interfeței MiniMax Agent (un chat web similar cu ChatGPT), ambele fiind în prezent gratuite pentru o perioadă limitată de timp. MiniMax recomandă SGLang și vLLM pentru servirea eficientă, fiecare oferind suport de zi cu zi pentru raționamentul intercalat unic al modelului și structura de apelare a instrumentelor. Ghiduri de implementare și configurații de parametri sunt disponibile prin intermediul documentației MiniMax.
Eficiența costurilor și economia token-urilor
Așa cum a observat Artificial Analysis, prețurile API-ului MiniMax sunt stabilite la 0.30 USD per milion de token-uri de intrare și 1.20 USD per milion de token-uri de ieșire, printre cele mai competitive din ecosistemul de modele deschise.
În timp ce modelul produce urme de raționament mai lungi și mai explicite, activarea sa sparse și designul de calcul optimizat ajută la menținerea unui echilibru cost-performanță favorabil - un avantaj pentru echipele care implementează agenți interactivi sau sisteme de automatizare cu volum mare.
Informații despre MiniMax - o putere chineză emergentă
MiniMax a devenit rapid unul dintre cele mai urmărite nume din sectorul AI chinezesc în ascensiune rapidă. Susținută de Alibaba și Tencent, compania a trecut de la o obscuritate relativă la recunoaștere internațională în decurs de un an - mai întâi prin descoperiri în generarea video AI, apoi printr-o serie de modele lingvistice mari (LLM) open-weight, destinate direct dezvoltatorilor și întreprinderilor.
Compania a captat pentru prima dată atenția globală la sfârșitul anului 2024 cu instrumentul său de generare video AI, "video-01", care a demonstrat capacitatea de a crea scene cinematice dinamice în câteva secunde. VentureBeat a descris modul în care lansarea modelului a stârnit un interes larg după ce creatorii online au început să distribuie imagini realiste, generate de AI - cel mai memorabil, un clip viral al unui duel cu săbii laser din Star Wars care a atras milioane de vizualizări în mai puțin de două zile. CEO-ul Yan Junjie a subliniat că sistemul a depășit instrumentele occidentale de top în generarea mișcării și expresiei umane, o zonă în care AI-urile video se luptă adesea. Produsul, comercializat ulterior prin intermediul platformei Hailuo a MiniMax, a demonstrat încrederea tehnică și acoperirea creativă a startup-ului, contribuind la stabilirea Chinei ca un concurent serios în tehnologia video generativă.
Până la începutul anului 2025, MiniMax și-a îndreptat atenția către modelarea lingvistică cu context lung, dezvăluind seria MiniMax-01, inclusiv MiniMax-Text-01 și MiniMax-VL-01. Aceste modele open-weight au introdus o fereastră de context fără precedent de 4 milioane de token-uri, dublând acoperirea Gemini 1.5 Pro al Google și eclipsând GPT-4o al OpenAI cu mai mult de douăzeci de ori.
Compania și-a continuat cadența rapidă cu lansarea MiniMax-M1 în iunie 2025, un model axat pe raționamentul cu context lung și eficiența învățării prin întărire. M1 a extins capacitatea de context la 1 milion de token-uri și a introdus un design hibrid Mixture-of-Experts, antrenat folosind un algoritm personalizat de învățare prin întărire cunoscut sub numele de CISPO. Remarcabil, VentureBeat a raportat că MiniMax a antrenat M1 la un cost total de aproximativ 534.700 de dolari, aproximativ o zecime din R1 al DeepSeek și cu mult sub bugetele de mai multe milioane de dolari tipice pentru modelele la scară de frontieră.
Pentru întreprinderi și echipe tehnice, traiectoria MiniMax semnalează sosirea unei noi generații de modele open-weight eficiente din punct de vedere al costurilor, concepute pentru implementarea în lumea reală. Licența sa deschisă - de la Apache 2.0 la MIT - oferă întreprinderilor libertatea de a personaliza, auto-găzdui și regla fin fără blocarea furnizorului sau restricții de conformitate. Caracteristici precum apelarea funcțiilor structurate, reținerea contextului lung și arhitecturile de atenție de înaltă eficiență abordează direct nevoile grupurilor de inginerie care gestionează sisteme de raționament în mai mulți pași și conducte intensive în date. Pe măsură ce MiniMax continuă să își extindă gama, compania a apărut ca un inovator global cheie în AI open-weight, combinând cercetarea ambițioasă cu ingineria pragmatică.
Leadership open-weight și contextul industriei
Lansarea MiniMax-M2 consolidează leadership-ul în creștere al grupurilor chineze de cercetare AI în dezvoltarea modelelor open-weight. În urma contribuțiilor anterioare de la DeepSeek, seria Qwen a Alibaba și Moonshot AI, intrarea MiniMax continuă tendința către sisteme deschise, eficiente, concepute pentru utilizarea în lumea reală. Artificial Analysis a observat că MiniMax-M2 exemplifică o schimbare mai largă de accent către capabilitatea agentică și rafinarea învățării prin întărire, prioritizând raționamentul controlabil și utilitatea reală față de dimensiunea brută a modelului. Pentru întreprinderi, acest lucru înseamnă acces la un model deschis de ultimă generație care poate fi auditat, reglat fin și implementat intern cu transparență deplină. Prin combinarea performanței puternice în benchmark-uri cu licențierea deschisă și scalarea eficientă, MiniMaxAI poziționează MiniMax-M2 ca o fundație practică pentru sisteme inteligente care gândesc, acționează și asistă cu o logică urmăribilă - făcându-l unul dintre cele mai pregătite pentru întreprinderi modele AI deschise disponibile astăzi.

