Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Noticias: Mistral acaba de eliminar masivamente tres de sus propios modelos
tomaron magistral (razonamiento), pixtral (multimodal) y devstral (programación) y los fusionaron en un solo modelo
mistral pequeño 4
y el momento aquí es interesante
también acaban de anunciar una asociación estratégica con NVIDIA para co-desarrollar modelos de código abierto de frontera
entonces, ¿cómo se ve realmente el pequeño 4?:
>128 expertos en una configuración de mezcla de expertos
>solo 6B de parámetros activos por token de un total de 119B >256k ventana de contexto
>apache 2.0 completamente de código abierto
>40% más rápido y 3x más rendimiento que el pequeño 3
pero la parte que vale la pena prestar atención es el parámetro reasoning_effort
puedes configurarlo en "ninguno" para respuestas rápidas y ligeras
o aumentarlo a "alto" para un razonamiento profundo paso a paso
el mismo modelo haciendo ambas cosas
esta es una señal clara de hacia dónde se dirige la IA de código abierto
las empresas han terminado de mantener cinco modelos diferentes para cinco tareas diferentes
un modelo que se adapta según lo que necesites que haga...
Parte superior
Clasificación
Favoritos
