Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Представляємо NVIDIA Nemotron 3 Super 🎉
Відкрита гібридна модель MoE Mamba-Transformer з параметром 120B (12B активна)
Рідний контекст 1M-токена
Створено для багатоагентних застосувань з високою точністю з обчисленням
Плюс повністю відкриті ваги, набори даних і рецепти для легкої кастомізації та розгортання. 🧵
Це останнє поповнення сімейства Nemotron — це не просто більший Nano.
✅ До 5 разів більша пропускна здатність і вдвічі точність, ніж у попередній версії
✅ Латентний MoE, який викликає у 4 рази більше експертів за таку ж вартість виведення
✅ Багатотокенне прогнозування, що суттєво скорочує час генерації
✅ Гібридна магістраль Mamba-Transformer забезпечує у 4 рази кращу пам'ять і обчислювальну ефективність
✅ Нативне попереднє навчання NVFP4, оптимізоване для NVIDIA Blackwell
Ознайомтеся з глибоким аналізом архітектурних рішень і методів навчання, що лежать в основі моделі 👇

🦞Ці інновації разом створюють модель, яка добре підходить для довготривалих автономних агентів.
На PinchBench — еталоні для оцінки LLM як @OpenClaw кодувальних агентів — Nemotron 3 Super набирає 85,6% у повному наборі тестів, що робить його найкращою відкритою моделлю у своєму класі.

@openclaw «NVIDIA Nemotron 3 Super: новий лідер відкритого, ефективного інтелекту»

7 годин тому
NVIDIA випустила Nemotron 3 Super — модель з відкритими вагами 120B (12B активно), яка отримує 36 балів за індексом штучного аналізу з гібридною архітектурою MoE Mamba-Transformer
Нам надали доступ до цієї моделі ще до запуску, і ми оцінили її з точки зору інтелекту, відкритості та ефективності висновків.
Основні висновки
➤ Поєднує високу відкритість із сильним інтелектом: Nemotron 3 Super має високі результати для свого розміру і є значно інтелектуальнішим за будь-яку іншу модель із порівнянною відкритістю
➤ Nemotron 3 Super набрав 36 балів за Індексом інтелекту штучного аналізу, що на +17 балів випереджає попередній реліз Super і на +12 балів від Nemotron 3 Nano. Порівняно з моделями подібної категорії розмірів, це ставить його попереду gpt-oss-120b (33), але позаду нещодавно випущеного Qwen3.5 122B A10B (42).
➤ Зосереджені на ефективному інтелекті: ми виявили, що Nemotron 3 Super має вищий інтелект, ніж gpt-oss-120b, при цьому забезпечуючи ~10% вищу пропускну здатність на GPU у простому, але реалістичному тесті навантаження
➤ Підтримується сьогодні для швидкого безсерверного висновку: провайдери, включаючи @DeepInfra та @LightningAI, обслуговують цю модель на запуску зі швидкістю до 484 токенів на секунду
Деталі моделі
📝 Nemotron 3 Super має загалом 120,6 млрд і 12,7 млрд активних параметрів, а також контекстне вікно на 1 мільйон токенів і підтримку гібридного мислення. Він публікується з відкритими вагами та дозволяючою ліцензією, а також відкритими даними про навчання та розкриття методології
📐 Модель має кілька конструктивних особливостей, що дозволяють ефективно робити висновки, зокрема використання гібридних архітектур Mamba-Transformer і LatentMoE, багатотокенне прогнозування та квантування NVFP4
🎯 NVIDIA попередньо навчила Nemotron 3 Super (переважно) точності NVFP4, але перейшла на BF16 для післянавчання. Наші оцінювальні бали використовують вагу BF16
🧠 Ми протестували Nemotron 3 Super у його режимі мислення з найбільшими зусиллями («звичайний»), найздатнішому з трьох режимів висновку моделі (вимкнений, низькоуважний і звичайний)

@openclaw ✨ Nemotron 3 Super тепер доступний для підписників @Perplexity_ai Pro та Max у випадаючому меню вибору моделі. Його також можна використовувати через API агента та комп'ютер Perplexity.
189
Найкращі
Рейтинг
Вибране
