Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Einführung des NVIDIA Nemotron 3 Super 🎉
Offenes 120B-Parameter (12B aktiv) hybrides Mamba-Transformer MoE-Modell
Native 1M-Token-Kontext
Entwickelt für recheneffiziente, hochgenaue Multi-Agenten-Anwendungen
Außerdem vollständig offene Gewichte, Datensätze und Rezepte für einfache Anpassung und Bereitstellung. 🧵
Diese neueste Ergänzung der Nemotron-Familie ist nicht nur ein größerer Nano.
✅ Bis zu 5x höhere Durchsatzrate und 2x Genauigkeit im Vergleich zur vorherigen Version
✅ Latentes MoE, das 4x so viele Experten für die gleiche Inferenzkosten anruft
✅ Multi-Token-Vorhersage, die die Generierungszeit drastisch reduziert
✅ Hybrid-Mamba-Transformer-Rückgrat bietet 4x verbesserte Speicher- und Recheneffizienz
✅ Native NVFP4-Vortraining, optimiert für NVIDIA Blackwell
Schau dir die tiefgehende Analyse der architektonischen Entscheidungen und Trainingsmethoden hinter dem Modell an 👇

🦞Diese Innovationen kommen zusammen, um ein Modell zu schaffen, das gut für langlaufende autonome Agenten geeignet ist.
Auf PinchBench—einem Benchmark zur Bewertung von LLMs als @OpenClaw-Coding-Agenten—erreicht Nemotron 3 Super 85,6 % über die gesamte Testreihe und ist damit das beste offene Modell seiner Klasse.

@openclaw "NVIDIA Nemotron 3 Super: Der neue Führer in offener, effizienter Intelligenz"

Vor 7 Stunden
NVIDIA hat Nemotron 3 Super veröffentlicht, ein 120B (12B aktiv) offenes Gewichtsmodell für Schlussfolgerungen, das mit 36 im Artificial Analysis Intelligence Index bewertet wird und eine hybride Mamba-Transformer MoE-Architektur verwendet.
Wir hatten vor der Markteinführung Zugang zu diesem Modell und haben es hinsichtlich Intelligenz, Offenheit und Inferenzeffizienz bewertet.
Wichtige Erkenntnisse
➤ Kombiniert hohe Offenheit mit starker Intelligenz: Nemotron 3 Super schneidet für seine Größe stark ab und ist erheblich intelligenter als jedes andere Modell mit vergleichbarer Offenheit.
➤ Nemotron 3 Super erzielte 36 im Artificial Analysis Intelligence Index, 17 Punkte mehr als die vorherige Super-Version und 12 Punkte mehr als Nemotron 3 Nano. Im Vergleich zu Modellen in einer ähnlichen Größenkategorie liegt es vor gpt-oss-120b (33), aber hinter dem kürzlich veröffentlichten Qwen3.5 122B A10B (42).
➤ Fokussiert auf effiziente Intelligenz: Wir fanden, dass Nemotron 3 Super eine höhere Intelligenz als gpt-oss-120b aufweist und gleichzeitig ~10% höheren Durchsatz pro GPU in einem einfachen, aber realistischen Lasttest ermöglicht.
➤ Heute unterstützt für schnelle serverlose Inferenz: Anbieter wie @DeepInfra und @LightningAI bieten dieses Modell zum Start mit Geschwindigkeiten von bis zu 484 Tokens pro Sekunde an.
Modell-Details
📝 Nemotron 3 Super hat insgesamt 120,6B und 12,7B aktive Parameter, zusammen mit einem Kontextfenster von 1 Million Tokens und Unterstützung für hybrides Schlussfolgern. Es wird mit offenen Gewichten und einer permissiven Lizenz veröffentlicht, zusammen mit offenen Trainingsdaten und Methodikoffenlegung.
📐 Das Modell hat mehrere Designmerkmale, die eine effiziente Inferenz ermöglichen, einschließlich der Verwendung von hybriden Mamba-Transformer- und LatentMoE-Architekturen, Multi-Token-Vorhersage und NVFP4-quantisierten Gewichten.
🎯 NVIDIA hat Nemotron 3 Super in (hauptsächlich) NVFP4-Präzision vortrainiert, ist jedoch für das Nachtraining zu BF16 gewechselt. Unsere Bewertungsergebnisse verwenden die BF16-Gewichte.
🧠 Wir haben Nemotron 3 Super in seinem höchsten Anstrengungsmodus für Schlussfolgerungen ("regulär") benchmarkiert, dem fähigsten der drei Inferenzmodi des Modells (Schlussfolgern aus, niedriger Aufwand und regulär).

@openclaw ✨ Nemotron 3 Super ist jetzt für @Perplexity_ai Pro- und Max-Abonnenten im Dropdown-Menü des Modellauswahl verfügbar. Es kann auch über die Agent API und Perplexity Computer verwendet werden.
182
Top
Ranking
Favoriten
