Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Notícias: A Mistral acabou de excluir em massa três de seus próprios modelos
Eles pegaram Magistral (raciocínio), Pixtral (multimodal) e Devstral (codificação) e os fundiram em um único modelo
Mistral pequeno 4
E o timing aqui é interessante
eles também acabaram de anunciar uma parceria estratégica com a NVIDIA para co-desenvolver modelos open source da Frontier
Então, como é que o Small 4 realmente é:
>128 especialistas em uma combinação de sistemas de especialistas
>apenas 6 milhões de parâmetros ativos por token de um total de 119 milhões de parâmetros >256k de janela de contexto
>apache 2.0 totalmente open source
>40% mais rápido e 3x mais throughput que o pequeno 3
Mas a parte que vale a pena se prestar atenção é o parâmetro reasoning_effort
Você pode definir para "nenhum" para respostas rápidas e leves
ou aumentar para "alto" para raciocínio profundo passo a passo
Mesmo modelo fazendo ambos
isso é um sinal claro de para onde a IA open source está caminhando
As empresas terminaram de manter cinco modelos diferentes para cinco tarefas distintas
Um modelo que se adapta conforme o que você precisa que ele faça...
Melhores
Classificação
Favoritos
