A Alibaba lançou 4 novos modelos Qwen3.5 de 0.8B a 9B. O 9B (Raciocínio, 32 no Índice de Inteligência) é o modelo mais inteligente abaixo de 10B parâmetros, e o 4B (Raciocínio, 27) é o mais inteligente abaixo de 5B, mas ambos usam mais de 200M de tokens de saída para executar o Índice de Inteligência @Alibaba_Qwen expandiu a família Qwen3.5 com quatro modelos densos menores: o 9B (Raciocínio, 32 no Índice de Inteligência), 4B (Raciocínio, 27), 2B (Raciocínio, 16) e 0.8B (Raciocínio, 9). Estes complementam os maiores modelos 397B, 27B, 122B A10B e 35B A3B lançados no início deste mês. Todos os modelos têm licença Apache 2.0, suportam 262K de contexto, incluem suporte nativo à visão e usam a mesma abordagem híbrida de pensamento/não pensamento unificada que o resto da família Qwen3.5 Resultados chave de benchmarking para as variantes de raciocínio: ➤ O 9B e o 4B são os modelos mais inteligentes em suas respectivas classes de tamanho, à frente de todos os outros modelos abaixo de 10B parâmetros. O Qwen3.5 9B (32) pontua aproximadamente o dobro dos próximos modelos mais próximos abaixo de 10B: Falcon-H1R-7B (16) e NVIDIA Nemotron Nano 9B V2 (Raciocínio, 15). O Qwen3.5 4B (27) supera todos esses, apesar de ter aproximadamente metade dos parâmetros. Todos os quatro modelos pequenos Qwen3.5 estão na fronteira de Pareto do gráfico Inteligência vs. Total de Parâmetros ➤ A geração Qwen3.5 representa um aumento material de inteligência em relação ao Qwen3 em todos os tamanhos de modelos abaixo de 10B, com ganhos maiores em contagens de parâmetros totais mais altas. Comparando variantes de raciocínio: o Qwen3.5 9B (32) está 15 pontos à frente do Qwen3 VL 8B (17), o 4B (27) ganha 9 pontos sobre o Qwen3 4B 2507 (18), o 2B (16) está 3 pontos à frente do Qwen3 1.7B (estimado 13), e o 0.8B (9) ganha 2.5 pontos sobre o Qwen3 0.6B (6.5). ➤ Todos os quatro modelos usam de 230 a 390M de tokens de saída para executar o Índice de Inteligência, significativamente mais do que ambos os irmãos maiores Qwen3.5 e os predecessores Qwen3. O Qwen3.5 2B usou ~390M de tokens de saída, o 4B usou ~240M, o 0.8B usou ~230M, e o 9B usou ~260M. Para contexto, o muito maior Qwen3.5 27B usou 98M e o modelo principal 397B usou 86M. Essas contagens de tokens também superam a maioria dos modelos de fronteira: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) e GLM-5 Raciocínio (109M) ➤ AA-Omniscience é uma fraqueza relativa, com taxas de alucinação de 80-82% para o 4B e 9B. O Qwen3.5 4B pontua -57 em AA-Omniscience com uma taxa de alucinação de 80% e precisão de 12.8%. O Qwen3.5 9B pontua -56 com 82% de alucinação e 14.7% de precisão. Estes são marginalmente melhores do que seus predecessores Qwen3 (Qwen3 4B 2507: -61, 84% de alucinação, 12.7% de precisão), com a melhoria impulsionada principalmente por taxas de alucinação mais baixas em vez de maior precisão. ➤ Os modelos Qwen3.5 abaixo de 10B combinam alta inteligência com visão nativa em uma escala anteriormente indisponível. No MMMU-Pro (raciocínio multimodal), o Qwen3.5 9B pontua 69.2% e o 4B pontua 65.4%, à frente do Qwen3 VL 8B (56.6%), Qwen3 VL 4B (52.0%) e Ministral 3 8B (46.0%). O Qwen3.5 0.8B pontua 25.8%, o que é notável para um modelo abaixo de 1B Outras informações: ➤ Janela de contexto: 262K tokens ➤ Licença: Apache 2.0 ➤ Quantização: Os pesos nativos são BF16. A Alibaba não lançou quantizações GPTQ-Int4 de primeira parte para esses modelos pequenos, embora tenha feito para os modelos maiores da família Qwen3.5 lançados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). Em quantização de 4 bits, todos os quatro modelos são acessíveis em hardware de consumo ➤ Disponibilidade: No momento da publicação, não há APIs sem servidor de primeira ou terceira parte hospedando esses modelos
A geração Qwen3.5 representa uma mudança significativa na inteligência de modelos pequenos em relação ao Qwen3. O 9B ganha 15 pontos em relação ao Qwen3 VL 8B (17 a 32), o 4B ganha 9 pontos em relação ao Qwen3 4B 2507 (18 a 27), o 2B ganha 3 pontos em relação ao Qwen3 1.7B (13 a 16), e o 0.8B ganha 2.5 pontos em relação ao Qwen3 0.6B (6.5 a 9).
Os ganhos de inteligência vêm à custa de um alto uso de tokens em comparação com os pares. Todos os quatro modelos Qwen3.5 com menos de 10B utilizam mais de 230M de tokens de saída para executar o Índice de Inteligência - isso é significativamente mais alto do que a maioria dos modelos de fronteira, bem como os predecessores do Qwen3.
Os modelos Qwen3.5 9B e 4B são os modelos multimodais mais inteligentes com menos de 15B de parâmetros. No MMMU-Pro, o Qwen3.5 9B (69%) e o 4B (65%) lideram todos os modelos com menos de 15B.
Análise dos resultados individuais para os 4 modelos
Compare a família Qwen3.5 com outros modelos líderes em:
8,45K