Prezentăm NVIDIA Nemotron 3 Super 🎉 Model Mamba-E hibrid Mamba-Transformer deschis cu 120B (12B activ) Context nativ 1M-token Construit pentru aplicații multi-agent eficiente din punct de vedere al calculului și cu acuratețe ridicată În plus, greutăți complet deschise, seturi de date și rețete pentru personalizare și implementare ușoară. 🧵
Această ultimă adăugire la familia Nemotron nu este doar un Nano mai mare. ✅ De până la 5 ori mai mult debit și de două ori mai mare precizie decât versiunea anterioară ✅ Ministerul de Educație latent care cheamă de 4 ori mai mulți specialiști experți pentru același cost de inferență ✅ Predicție multi-token care reduce dramatic timpul de generare ✅ Backbone-backbone hibrid Mamba-Transformer oferă o eficiență de memorie și de calcul de 4 ori îmbunătățite ✅ Preantrenament nativ NVFP4 optimizat pentru NVIDIA Blackwell Aruncă o privire în detaliu asupra deciziilor arhitecturale și metodelor de antrenament din spatele modelului 👇
🦞Aceste inovații se combină pentru a crea un model bine adaptat agenților autonomi de lungă durată. Pe PinchBench — un reper pentru evaluarea LLM-urilor ca agenți de codare @OpenClaw — Nemotron 3 Super obține un scor de 85,6% pe întregul set de teste, devenind cel mai bun model deschis din clasa sa.
@openclaw "NVIDIA Nemotron 3 Super: Noul lider în inteligență deschisă și eficientă"
Artificial Analysis
Artificial AnalysisCu 9 ore în urmă
NVIDIA a lansat Nemotron 3 Super, un model de raționament cu greutăți deschise de 120B (12B active) care obține un scor 36 la Artificial Analysis Intelligence Index, cu o arhitectură MoE hibridă Mamba-Transformer Ni s-a oferit acces la acest model înainte de lansare și l-am evaluat în funcție de inteligență, deschidere și eficiență a inferenței. Concluzii cheie ➤ Combină deschidere ridicată cu inteligență puternică: Nemotron 3 Super performează puternic pentru dimensiunea sa și este substanțial mai inteligent decât orice alt model cu deschidere comparabilă ➤ Nemotron 3 Super a obținut 36 de puncte la Artificial Analysis Intelligence Index, cu +17 puncte peste lansarea anterioară a Super și cu +12 puncte față de Nemotron 3 Nano. Comparativ cu modelele dintr-o categorie de dimensiuni similare, acest lucru îl plasează înaintea gpt-oss-120b (33), dar în spatele recentului Qwen3.5 122B A10B (42). ➤ Axat pe inteligență eficientă: am constatat că Nemotron 3 Super are o inteligență mai mare decât gpt-oss-120b, permițând totodată un throughput de ~10% mai mare pe GPU într-un test de încărcare simplu, dar realist ➤ Suportat astăzi pentru inferență rapidă serverless: furnizorii precum @DeepInfra și @LightningAI servesc acest model la lansare, cu viteze de până la 484 de tokenuri pe secundă Detalii despre model 📝 Nemotron 3 Super are 120,6 miliarde în total și 12,7 miliarde parametri activi, împreună cu o fereastră de context de 1 milion de tokenuri și suport pentru raționament hibrid. Este publicată cu greutăți deschise și o licență permisivă, alături de date deschise de antrenament și dezvăluire metodologică 📐 Modelul are mai multe caracteristici de design care permit inferențe eficiente, inclusiv utilizarea arhitecturilor hibride Mamba-Transformer și LatentMoE, predicția multi-token și ponderile cuantificate NVFP4 🎯 NVIDIA a pre-antrenat Nemotron 3 Super în (în mare parte) precizie NVFP4, dar a trecut la BF16 pentru post-antrenament. Scorurile noastre de evaluare folosesc ponderile BF16 🧠 Am evaluat Nemotron 3 Super în modul său de raționament cu cel mai mare efort ("regular"), cel mai capabil dintre cele trei moduri de inferență ale modelului (raționament-off, low-effort și regular)
@openclaw ✨ Nemotron 3 Super este acum disponibil pentru abonații @Perplexity_ai Pro și Max în meniul derulant pentru selectarea modelelor. Poate fi folosit și prin Agent API și Perplexity Computer.
228