Alibaba ha lanzado 4 nuevos modelos Qwen3.5, de 0,8B a 9B. El 9B (Razonamiento, 32 en el Índice de Inteligencia) es el modelo más inteligente bajo parámetros 10B, y el 4B (Razonamiento, 27) el más inteligente bajo 5B, pero ambos usan tokens de salida de 200M+ para ejecutar el Índice de Inteligencia @Alibaba_Qwen ha ampliado la familia Qwen3.5 con cuatro modelos más pequeños y densos: el 9B (Razonamiento, 32 en el Índice de Inteligencia), 4B (Razonamiento, 27), 2B (Razonamiento, 16) y 0,8B (Razonamiento, 9). Estos complementan los modelos más grandes 397B, 27B, 122B A10B y 35B A3B lanzados a principios de este mes. Todos los modelos tienen licencia Apache 2.0, soportan contexto 262K, incluyen soporte visual nativo y utilizan el mismo enfoque híbrido de pensamiento/no pensamiento unificado que el resto de la familia Qwen3.5 Resultados clave de comparación para las variantes de razonamiento: ➤ El 9B y el 4B son los modelos más inteligentes en sus respectivas clases de tamaño, por delante de todos los demás modelos bajo parámetros 10B. Qwen3.5 9B (32) obtiene aproximadamente el doble de los modelos más cercanos por debajo del 10B: Falcon-H1R-7B (16) y NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) supera a todos estos a pesar de tener aproximadamente la mitad de los parámetros. Los cuatro modelos pequeños Qwen3.5 están en la frontera de Pareto en la tabla de Inteligencia vs. Parámetros Totales ➤ La generación Qwen3.5 representa un aumento material de inteligencia respecto a Qwen3 en todos los tamaños de modelo inferiores a 10B, con mayores ganancias a mayor número total de parámetros. Comparando variantes de razonamiento: Qwen3.5 9B (32) está 15 puntos por delante de Qwen3 VL 8B (17), el 4B (27) gana 9 puntos sobre Qwen3 4B 2507 (18), el 2B (16) está 3 puntos por delante de Qwen3 con 1.7B (estimado 13), y el 0.8B (9) gana 2,5 puntos frente a Qwen3 0.6B (6,5). ➤ Los cuatro modelos utilizan tokens de salida de 230-390M para ejecutar el Índice de Inteligencia, significativamente más que tanto los hermanos mayores Qwen3.5 como sus predecesores Qwen3. Qwen3.5 2B usaba tokens de salida ~390M, 4B ~240M, 0,8B ~230M y 9B ~260M. Para contextualizar, el mucho más grande Qwen3.5 27B usaba 98M y el buque insignia 397B usaba 86M. Estos conteos de tokens también superan a la mayoría de los modelos frontera: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) y GLM-5 Reasoning (109M) ➤ AA-Omnisciencia es una debilidad relativa, con tasas de alucinación del 80-82% para los 4B y 9B. Qwen3.5 4B obtiene una puntuación de -57 en AA-Omniscience con una tasa de alucinaciones del 80% y una precisión del 12,8%. Qwen3.5 9B obtiene -56 con un 82% de alucinaciones y un 14,7% de precisión. Estos son ligeramente mejores que sus predecesores Qwen3 (Qwen3 4B 2507: -61, 84% alucinaciones, 12,7% de precisión), con la mejora impulsada principalmente por tasas de alucinaciones más bajas que por mayor precisión. ➤ Los modelos Qwen3.5 sub-10B combinan alta inteligencia con visión nativa a una escala previamente no disponible. En MMMU-Pro (razonamiento multimodal), Qwen3.5 9B obtiene un 69,2% y 4B un 65,4%, por delante de Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) y Ministral 3 8B (46,0%). El Qwen3.5 0.8B obtiene un 25,8%, lo cual es notable para un modelo por debajo de 1.000 millones Otra información: ➤ Ventana de contexto: 262K tokens ➤ Licencia: Apache 2.0 ➤ Cuantización: Los pesos nativos son BF16. Alibaba no ha lanzado cuantizaciones GPTQ-Int4 de primera mano para estos modelos pequeños, aunque sí lo ha hecho para los modelos más grandes de la familia Qwen3.5 lanzados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). En cuantización de 4 bits, los cuatro modelos son accesibles en hardware de consumo ➤ Disponibilidad: En el momento de la publicación, no existen APIs serverless de primera mano ni de terceros que alojen estos modelos
La generación Qwen3.5 supone un cambio radical en la inteligencia de modelos pequeños respecto a Qwen3. El 9B gana 15 puntos sobre Qwen3 VL 8B (17 a 32), el 4B gana 9 puntos sobre Qwen3 4B 2507 (18 a 27), el 2B gana 3 puntos sobre Qwen3 1,7B (13 a 16), y el 0,8B gana 2,5 puntos sobre Qwen3 0,6B (6,5 a 9).
Las ganancias de inteligencia tienen el coste de un alto uso de tokens en comparación con sus homólogos. Los cuatro modelos Qwen3.5 sub-10B utilizan tokens de salida de 230M+ para ejecutar el Índice de Inteligencia, lo que es significativamente más alto que la mayoría de los modelos frontera y predecesores de Qwen3
Los modelos Qwen3.5, 9B y 4B son los modelos multimodales más inteligentes bajo parámetros 15B. En MMMU-Pro, los Qwen3.5 9B (69%) y 4B (65%) lideran todos los modelos por debajo de 15B
Desglose de los resultados individuales para los 4 modelos
Compara la familia Qwen3.5 con otros modelos líderes en:
9.92K