Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Nyheter: Mistral massraderade precis tre av sina egna modeller
De tog Magistral (resonerande), Pixtral (multimodal) och Devstral (kodning) och slog ihop dem till en enda modell
Mistral Small 4
Och tajmingen här är intressant
de har också precis tillkännagivit ett strategiskt partnerskap med NVIDIA för att samutveckla banbrytande open source-modeller
Så hur ser Small 4 egentligen ut:
>128 experter i en blandning av experter
>endast 6 miljarder aktiva parametrar per token av totalt 119 miljarder >256 000 kontextfönster
>Apache 2.0 helt öppen källkod
>40 % snabbare och 3 gånger mer genomströmning än små 3
Men det som är värt att uppmärksamma är den reasoning_effort parametern
Du kan ställa in den på "ingen" för snabba, lätta svar
Eller vrid upp den till "högt" för djup steg-för-steg-resonemang
samma modell som gör båda
detta är en tydlig signal om vart open source-AI är på väg
Företagen är klara med att upprätthålla fem olika modeller för fem olika uppgifter
En modell som anpassar sig utifrån vad du behöver den ska göra...
Topp
Rankning
Favoriter
