Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alibaba a lansat 4 modele noi Qwen3.5, de la 0.8B la 9B. 9B (Raționament, 32 pe Indicele de Inteligență) este cel mai inteligent model sub parametrii 10B, iar 4B (Raționament, 27) cel mai inteligent sub 5B, dar ambele folosesc jetoane de ieșire de 200M+ pentru a rula Indicele de Inteligență
@Alibaba_Qwen a extins familia Qwen3.5 cu patru modele mai mici și dense: 9B (Raționament, 32 pe Indicele de Inteligență), 4B (Raționament, 27), 2B (Raționament, 16) și 0.8B (Raționament, 9). Acestea completează modelele mai mari 397B, 27B, 122B A10B și 35B A3B lansate la începutul acestei luni. Toate modelele sunt licențiate Apache 2.0, suportă context 262K, includ suport nativ pentru viziune și folosesc aceeași abordare hibridă unificată gândire/non-gândire ca restul familiei Qwen3.5
Rezultate cheie de benchmarking pentru variantele de raționament:
➤ 9B și 4B sunt cele mai inteligente modele la clasele lor de dimensiune respective, înaintea tuturor celorlalte modele sub parametrii 10B. Qwen3.5 9B (32) obține aproximativ dublul modelelor apropiate sub 10B: Falcon-H1R-7B (16) și NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) depășește toate acestea, deși are aproximativ jumătate din parametri. Toate cele patru modele mici Qwen3.5 se află pe frontiera Pareto a graficului Inteligență vs. Parametri Totali
➤ Generația Qwen3.5 reprezintă o creștere materială a inteligenței față de Qwen3 la toate dimensiunile modelelor sub 10B, cu câștiguri mai mari la un număr total mai mare de parametri. Comparând variantele de raționament: Qwen3.5 9B (32) este cu 15 puncte înaintea Qwen3 VL 8B (17), 4B (27) câștigă 9 puncte față de Qwen3 4B 2507 (18), 2B (16) este cu 3 puncte înaintea Qwen3 cu 1.7B (estimat 13), iar 0.8B (9) câștigă 2,5 puncte față de Qwen3 0.6B (6,5).
➤ Toate cele patru modele folosesc jetoane de ieșire de 230-390M pentru a rula Indicele de Inteligență, semnificativ mai mult decât frații mai mari Qwen3.5 și predecesorii Qwen3. Qwen3.5 2B folosea ~390M tokenuri de ieșire, 4B ~240M, 0.8B ~230M, iar 9B ~260M. Pentru context, mult mai marele Qwen3.5 27B folosea 98M, iar nava amiral 397B folosea 86M. Aceste număruri de jetoane depășesc și majoritatea modelelor frontier: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) și GLM-5 Reasoning (109M)
➤ AA-Omnisciența este o slăbiciune relativă, cu rate de halucinații de 80-82% pentru 4B și 9B. Qwen3.5 4B scor -57 la AA-Omniscience, cu o rată de halucinații de 80% și o acuratețe de 12,8%. Qwen3.5 9B scorul -56 cu 82% halucinații și 14,7% acuratețe. Acestea sunt marginal mai bune decât predecesorii lor Qwen3 (Qwen3 4B 2507: -61, 84% halucinații, 12,7% acuratețe), îmbunătățirea fiind determinată în principal de rate mai scăzute de halucinații, nu de o acuratețe mai mare.
➤ Modelele Qwen3.5 sub-10B combină inteligență ridicată cu vedere nativă la o scară anterior indisponibilă. Pe MMMU-Pro (raționament multimodal), Qwen3.5 9B obține 69,2%, iar 4B 65,4%, înaintea Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) și Ministral 3 8B (46,0%). Qwen3.5 0.8B obține un scor de 25,8%, ceea ce este notabil pentru un model sub 1B
Alte informații:
➤ Fereastră de context: 262K jetoane
➤ Licență: Apache 2.0
➤ Cuantificare: Greutățile native sunt BF16. Alibaba nu a lansat cuantizări GPTQ-Int4 first-party pentru aceste modele mici, deși a făcut-o pentru modelele mai mari din familia Qwen3.5 lansate anterior (27B, 35B-A3B, 122B-A10B, 397B-A17B). În cuantizarea pe 4 biți, toate cele patru modele sunt accesibile pe hardware de consum
➤ Disponibilitate: La momentul publicării, nu există API-uri serverless first-party sau terțe care să găzduiască aceste modele

Generația Qwen3.5 reprezintă o schimbare importantă în inteligența modelelor mici față de Qwen3. 9B câștigă 15 puncte față de Qwen3 VL 8B (17 la 32), 4B câștigă 9 puncte față de Qwen3 4B 2507 (18 la 27), 2B câștigă 3 puncte față de Qwen3 1,7B (13 la 16), iar 0,8B câștigă 2,5 puncte față de Qwen3 0,6B (6,5 la 9).

Câștigurile de inteligență vin cu prețul unei utilizări ridicate de token-uri comparativ cu colegii. Toate cele patru modele Qwen3.5 sub 10B folosesc jetoane de ieșire de 230M+ pentru a rula Indicele de Inteligență – acest lucru este semnificativ mai mare decât majoritatea modelelor frontier, precum și predecesorilor Qwen3

Modelele Qwen3.5, 9B și 4B sunt cele mai inteligente modele multimodale sub parametrii 15B. Pe MMMU-Pro, Qwen3.5 9B (69%) și 4B (65%) conduc toate modelele sub 15B

Defalcarea rezultatelor individuale pentru toate cele 4 modele

Comparați familia Qwen3.5 cu alte modele de top la:
8,3K
Limită superioară
Clasament
Favorite
