Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Memperkenalkan NVIDIA Nemotron 3 Super 🎉
Buka model MoE Hibrida Mamba-Transformer 120B (aktif 12B
Konteks token 1M asli
Dibuat untuk aplikasi multi-agen yang efisien komputasi dan akurasi tinggi
Plus, bobot, kumpulan data, dan resep yang sepenuhnya terbuka untuk penyesuaian dan penerapan yang mudah. 🧵
Tambahan terbaru untuk keluarga Nemotron ini bukan hanya Nano yang lebih besar.
✅ Throughput hingga 5x lebih tinggi dan akurasi 2x lipat dari versi sebelumnya
✅ MoE laten yang memanggil 4x lebih banyak spesialis ahli untuk biaya inferensi yang sama
✅ Prediksi multi-token yang secara dramatis mengurangi waktu pembuatan
✅ Tulang punggung Mamba-Transformer hibrida menghadirkan efisiensi memori dan komputasi yang ditingkatkan 4x lipat
✅ Prapelatihan NVFP4 asli yang dioptimalkan untuk NVIDIA Blackwell
Lihat selami keputusan arsitektur dan metode pelatihan di balik model 👇

🦞Inovasi ini bersatu untuk menciptakan model yang sangat cocok untuk agen otonom yang berjalan lama.
Di PinchBench—tolok ukur untuk mengevaluasi LLM sebagai agen pengkodean @OpenClaw—Nemotron 3 Super mendapat skor 85,6% di seluruh rangkaian pengujian lengkap, menjadikannya model terbuka terbaik di kelasnya.

@openclaw "NVIDIA Nemotron 3 Super: Pemimpin baru dalam kecerdasan terbuka dan efisien"

7 jam lalu
NVIDIA telah merilis Nemotron 3 Super, model penalaran bobot terbuka 120B (12B aktif) yang mendapat skor 36 pada Indeks Kecerdasan Analisis Buatan dengan arsitektur MoE Mamba-Transformer hibrida
Kami diberi akses ke model ini sebelum peluncuran dan mengevaluasinya di seluruh kecerdasan, keterbukaan, dan efisiensi inferensi.
Kesimpulan utama
➤ Menggabungkan keterbukaan tinggi dengan kecerdasan yang kuat: Nemotron 3 Super berkinerja kuat untuk ukurannya dan secara substansial lebih cerdas daripada model lain dengan keterbukaan yang sebanding
➤ Nemotron 3 Super mencetak 36 poin pada Indeks Kecerdasan Analisis Buatan, +17 poin di depan rilis Super sebelumnya dan +12 poin dari Nemotron 3 Nano. Dibandingkan dengan model dalam kategori ukuran yang sama, ini menempatkannya di depan gpt-oss-120b (33), tetapi di belakang Qwen3.5 122B A10B (42) yang baru-baru ini dirilis.
➤ Berfokus pada kecerdasan yang efisien: kami menemukan Nemotron 3 Super memiliki kecerdasan yang lebih tinggi daripada gpt-oss-120b sambil memungkinkan throughput ~10% lebih tinggi per GPU dalam uji beban yang sederhana namun realistis
➤ Didukung hari ini untuk inferensi nirserver yang cepat: penyedia termasuk @DeepInfra dan @LightningAI melayani model ini saat diluncurkan dengan kecepatan hingga 484 token per detik
Detail model
📝 Nemotron 3 Super memiliki total 120,6 miliar dan 12,7 miliar parameter aktif, bersama dengan jendela konteks 1 juta token dan dukungan penalaran hibrida. Ini diterbitkan dengan bobot terbuka dan lisensi permisif, di samping pengungkapan data pelatihan dan metodologi terbuka
📐 Model ini memiliki beberapa fitur desain yang memungkinkan inferensi yang efisien, termasuk menggunakan arsitektur Mamba-Transformer dan LatentMoE hibrida, prediksi multi-token, dan bobot terkuantisasi NVFP4
🎯 NVIDIA melatih Nemotron 3 Super terlebih dahulu dalam (kebanyakan) presisi NVFP4, tetapi pindah ke BF16 untuk pasca-pelatihan. Skor evaluasi kami menggunakan bobot BF16
🧠 Kami membandingkan Nemotron 3 Super dalam mode penalaran upaya tertinggi ("reguler"), yang paling mampu dari tiga mode inferensi model (penalaran, upaya rendah, dan reguler)

@openclaw ✨ Nemotron 3 Super sekarang tersedia untuk pelanggan @Perplexity_ai Pro dan Max di drop-down pemilih model. Ini juga dapat digunakan melalui Agent API dan Perplexity Computer.
186
Teratas
Peringkat
Favorit
