Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Gratulacje dla zespołu @liquidai z okazji LFM2-24B-A2B! 🎉 Wsparcie od dnia 0 dla LFM2-24B-A2B w stabilnej wersji vLLM ✅
24B całkowitych parametrów, tylko 2B aktywnych na token — mieści się w 32 GB RAM i osiąga 293 tok/s na H100 🔥


08833924 lut 2026
Today, we release our largest LFM2 model: LFM2-24B-A2B 🐘
> 24B total parameters
> 2.3B active per token
> Built on our hybrid, hardware-aware LFM2 architecture
It combines LFM2’s fast, memory-efficient design with a Mixture of Experts setup, so only 2.3B parameters activate each run.
The result: best-in-class efficiency, fast edge inference, and predictable log-linear scaling all in a 32GB, 2B-active MoE footprint.
🧵

151
🎉 Gratulacje dla @Alibaba_Qwen z okazji serii modeli Qwen3.5 Medium — Qwen3.5-35B-A3B, 122B-A10B i 27B 🚀🚀🚀
Więcej inteligencji, mniej obliczeń — dokładnie to, co społeczność open source uwielbia widzieć!
Sprawdź nasz przepis i wypróbuj je wszystkie z vLLM już dziś!

Qwen25 lut 2026
🚀 Introducing the Qwen 3.5 Medium Model Series
Qwen3.5-Flash · Qwen3.5-35B-A3B · Qwen3.5-122B-A10B · Qwen3.5-27B
✨ More intelligence, less compute.
• Qwen3.5-35B-A3B now surpasses Qwen3-235B-A22B-2507 and Qwen3-VL-235B-A22B — a reminder that better architecture, data quality, and RL can move intelligence forward, not just bigger parameter counts.
• Qwen3.5-122B-A10B and 27B continue narrowing the gap between medium-sized and frontier models — especially in more complex agent scenarios.
• Qwen3.5-Flash is the hosted production version aligned with 35B-A3B, featuring:
– 1M context length by default
– Official built-in tools
🔗 Hugging Face:
🔗 ModelScope:
🔗 Qwen3.5-Flash API:
Try in Qwen Chat 👇
Flash:
27B:
35B-A3B:
122B-A10B:
Would love to hear what you build with it.

133
🔥Gratulacje dla @Zai_org z okazji uruchomienia GLM-5 — 744B parametrów (40B aktywnych), wytrenowanych na 28,5T tokenów, integrujących DeepSeek Sparse Attention, aby utrzymać koszty wdrożenia na rozsądnym poziomie, jednocześnie zachowując zdolność do długiego kontekstu.
vLLM ma wsparcie od dnia 0 dla GLM-5-FP8 z:
📖 DeepSeek Sparse Attention dla efektywnego serwowania długiego kontekstu
⚡️ MTP spekulacyjne dekodowanie
⚙️ Wywoływanie narzędzi + tryb myślenia
Przepis z konfiguracjami serwowania i benchmarkami:
🔗

168
Najlepsze
Ranking
Ulubione
