Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Mistral lançou o Mistral Small 4, um modelo de pesos abertos com raciocínio híbrido e entrada de imagens, obtendo 27ª pontuação no Índice de Inteligência de Análise Artificial
O Small 4 da @MistralAI é um modelo de 119B de mistura de especialistas com 6,5 B de parâmetros ativos por token, suportando tanto modos de raciocínio quanto não raciocínio.
No modo de raciocínio, o Mistral Pequeno 4 obtém 27 no Índice de Inteligência de Análise Artificial, uma melhora de 12 pontos em relação ao Small 3,2 (15) e agora está entre os modelos mais inteligentes lançados pela Mistral, superando o Mistral Grande 3 (23) e igualando o proprietário Magistral Medium 1,2 (27). No entanto, ele fica atrás dos pares de pesos abertos com contagens totais de parâmetros semelhantes, como gpt-oss-120B (alto, 33), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, 36) e Qwen3.5 122B A10B (Raciocínio, 42).
Principais lições:
➤ Modos de raciocínio e não-raciocínio em um único modelo: O Mistral Small 4 suporta raciocínio híbrido configurável com modos de raciocínio e não-raciocínio, em vez das variantes de raciocínio separadas que a Mistral lançou anteriormente com seus modelos Magistrais. No modo de raciocínio, o modelo pontua 27 no Índice de Inteligência de Análise Artificial. No modo não raciocínio, o modelo pontua 19, uma melhora de 4 pontos em relação ao seu antecessor Mistral Small 3,2 (15)
➤ Mais eficiente em tokens do que pares de tamanho similar: Com ~52M tokens de saída, o Mistral Small 4 (Raciocínio) usa menos tokens para rodar o Índice de Inteligência de Análise Artificial em comparação com modelos de raciocínio como gpt-oss-120B (alto, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, ~110M) e Qwen3.5 122B A10B (Raciocínio, ~91M). No modo não raciocínio, o modelo usa tokens de saída de ~4M
➤ Suporte nativo para entrada de imagem: Mistral Small 4 é um modelo multimodal, aceitando entrada de imagem e texto. Em nossa avaliação multimodal, MMMU-Pro, Mistral Pequeno 4 (Raciocínio) pontua 57%, à frente do Mistral Grande 3 (56%), mas atrás de Qwen3.5 122B A10B (Raciocínio, 75%). Nem o gpt-oss-120B nem o NVIDIA Nemotron 3 Super 120B A12B suportam entrada de imagem. Todos os modelos suportam apenas saída de texto
➤ Melhoria em tarefas agentis do mundo real: Mistral Small 4 obtém um Elo de 871 no GDPval-AA, nossa avaliação baseada no conjunto de dados GDPval da OpenAI que testa modelos em tarefas do mundo real em 44 ocupações e 9 grandes indústrias, com modelos produzindo entregas como documentos, planilhas e diagramas em um ciclo agente. Isso é mais do que o dobro do Elo do Small 3.2 (339) e próximo do Mistral Large 3 (880), mas atrás do gpt-oss-120B (alto, 962), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 1021) e Qwen3.5 122B A10B (Reasoning, 1130)
➤ Menor taxa de alucinação do que modelos pares de tamanho semelhante: Mistral Small 4 nota -30 em AA-Oniciência, nossa avaliação de confiabilidade do conhecimento e alucinações, onde as pontuações variam de -100 a 100 (maior é melhor) e uma nota negativa indica mais respostas incorretas do que corretas. Mistral Small 4 pontua à frente do gpt-oss-120B (alto, -50), Qwen3.5 122B A10B (Raciocínio, -40) e NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, -42)
Detalhes principais do modelo:
➤ Janela de contexto: 256K tokens (subida de 128K no Small 3.2)
➤ Preço: $0,15/$0,6 por 1M de tokens de entrada/saída
➤ Disponibilidade: apenas API de primeira mão Mistral. Com precisão nativa FP8, os parâmetros 119B do Mistral Small 4 exigem ~119GB para auto-hospedar os pesos (mais do que os 80GB de memória HBM3 em um único NVIDIA H100)
➤ Modalidade: Entrada de imagem e texto com saída apenas de texto
➤ Licenciamento: Licença Apache 2.0

Sobre Inteligência vs Parâmetros Totais, Mistral Small 4 (Reasoning, 27) oferece uma troca menos favorável do que pares de tamanhos semelhantes, como gpt-oss-120B (alto, 33), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 36) e Qwen3.5 122B A10B (Reasoning, 42)

Com ~52M tokens de saída, Mistral Small 4 (Raciocínio) usa menos tokens para rodar o Índice de Inteligência de Análise Artificial em comparação com modelos pares como gpt-oss-120B (alto, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, ~110M) e Qwen3.5 122B A10B (Raciocínio, ~91M)

Análise completa dos resultados:

Resultados completos disponíveis na página do modelo Mistral Small 4 sobre Análise Artificial:
9,63K
Melhores
Classificação
Favoritos
