Einführung des NVIDIA Nemotron 3 Super 🎉 Offenes 120B-Parameter (12B aktiv) hybrides Mamba-Transformer MoE-Modell Native 1M-Token-Kontext Entwickelt für recheneffiziente, hochgenaue Multi-Agenten-Anwendungen Außerdem vollständig offene Gewichte, Datensätze und Rezepte für einfache Anpassung und Bereitstellung. 🧵
Diese neueste Ergänzung der Nemotron-Familie ist nicht nur ein größerer Nano. ✅ Bis zu 5x höhere Durchsatzrate und 2x Genauigkeit im Vergleich zur vorherigen Version ✅ Latentes MoE, das 4x so viele Experten für die gleiche Inferenzkosten anruft ✅ Multi-Token-Vorhersage, die die Generierungszeit drastisch reduziert ✅ Hybrid-Mamba-Transformer-Rückgrat bietet 4x verbesserte Speicher- und Recheneffizienz ✅ Native NVFP4-Vortraining, optimiert für NVIDIA Blackwell Schau dir die tiefgehende Analyse der architektonischen Entscheidungen und Trainingsmethoden hinter dem Modell an 👇
🦞Diese Innovationen kommen zusammen, um ein Modell zu schaffen, das gut für langlaufende autonome Agenten geeignet ist. Auf PinchBench—einem Benchmark zur Bewertung von LLMs als @OpenClaw-Coding-Agenten—erreicht Nemotron 3 Super 85,6 % über die gesamte Testreihe und ist damit das beste offene Modell seiner Klasse.
@openclaw "NVIDIA Nemotron 3 Super: Der neue Führer in offener, effizienter Intelligenz"
Artificial Analysis
Artificial AnalysisVor 7 Stunden
NVIDIA hat Nemotron 3 Super veröffentlicht, ein 120B (12B aktiv) offenes Gewichtsmodell für Schlussfolgerungen, das mit 36 im Artificial Analysis Intelligence Index bewertet wird und eine hybride Mamba-Transformer MoE-Architektur verwendet. Wir hatten vor der Markteinführung Zugang zu diesem Modell und haben es hinsichtlich Intelligenz, Offenheit und Inferenzeffizienz bewertet. Wichtige Erkenntnisse ➤ Kombiniert hohe Offenheit mit starker Intelligenz: Nemotron 3 Super schneidet für seine Größe stark ab und ist erheblich intelligenter als jedes andere Modell mit vergleichbarer Offenheit. ➤ Nemotron 3 Super erzielte 36 im Artificial Analysis Intelligence Index, 17 Punkte mehr als die vorherige Super-Version und 12 Punkte mehr als Nemotron 3 Nano. Im Vergleich zu Modellen in einer ähnlichen Größenkategorie liegt es vor gpt-oss-120b (33), aber hinter dem kürzlich veröffentlichten Qwen3.5 122B A10B (42). ➤ Fokussiert auf effiziente Intelligenz: Wir fanden, dass Nemotron 3 Super eine höhere Intelligenz als gpt-oss-120b aufweist und gleichzeitig ~10% höheren Durchsatz pro GPU in einem einfachen, aber realistischen Lasttest ermöglicht. ➤ Heute unterstützt für schnelle serverlose Inferenz: Anbieter wie @DeepInfra und @LightningAI bieten dieses Modell zum Start mit Geschwindigkeiten von bis zu 484 Tokens pro Sekunde an. Modell-Details 📝 Nemotron 3 Super hat insgesamt 120,6B und 12,7B aktive Parameter, zusammen mit einem Kontextfenster von 1 Million Tokens und Unterstützung für hybrides Schlussfolgern. Es wird mit offenen Gewichten und einer permissiven Lizenz veröffentlicht, zusammen mit offenen Trainingsdaten und Methodikoffenlegung. 📐 Das Modell hat mehrere Designmerkmale, die eine effiziente Inferenz ermöglichen, einschließlich der Verwendung von hybriden Mamba-Transformer- und LatentMoE-Architekturen, Multi-Token-Vorhersage und NVFP4-quantisierten Gewichten. 🎯 NVIDIA hat Nemotron 3 Super in (hauptsächlich) NVFP4-Präzision vortrainiert, ist jedoch für das Nachtraining zu BF16 gewechselt. Unsere Bewertungsergebnisse verwenden die BF16-Gewichte. 🧠 Wir haben Nemotron 3 Super in seinem höchsten Anstrengungsmodus für Schlussfolgerungen ("regulär") benchmarkiert, dem fähigsten der drei Inferenzmodi des Modells (Schlussfolgern aus, niedriger Aufwand und regulär).
@openclaw ✨ Nemotron 3 Super ist jetzt für @Perplexity_ai Pro- und Max-Abonnenten im Dropdown-Menü des Modellauswahl verfügbar. Es kann auch über die Agent API und Perplexity Computer verwendet werden.
182