🚨Nyheter: Mistral massraderade precis tre av sina egna modeller De tog Magistral (resonerande), Pixtral (multimodal) och Devstral (kodning) och slog ihop dem till en enda modell Mistral Small 4 Och tajmingen här är intressant de har också precis tillkännagivit ett strategiskt partnerskap med NVIDIA för att samutveckla banbrytande open source-modeller Så hur ser Small 4 egentligen ut: >128 experter i en blandning av experter >endast 6 miljarder aktiva parametrar per token av totalt 119 miljarder >256 000 kontextfönster >Apache 2.0 helt öppen källkod >40 % snabbare och 3 gånger mer genomströmning än små 3 Men det som är värt att uppmärksamma är den reasoning_effort parametern Du kan ställa in den på "ingen" för snabba, lätta svar Eller vrid upp den till "högt" för djup steg-för-steg-resonemang samma modell som gör båda detta är en tydlig signal om vart open source-AI är på väg Företagen är klara med att upprätthålla fem olika modeller för fem olika uppgifter En modell som anpassar sig utifrån vad du behöver den ska göra...