🚨Nyhet: Mistral har nettopp masseslettet tre av sine egne modeller De tok Magistral (resonnering), Pixtral (multimodal) og Devstral (koding) og slo dem sammen til én enkelt modell Mistral Small 4 Og timingen her er interessant de har også nettopp kunngjort et strategisk partnerskap med NVIDIA for å samutvikle Frontier Open Source-modeller Så hvordan ser Small 4 egentlig ut: >128 eksperter i en blanding av ekspertoppsett >kun 6 B parametere aktive per token av totalt 119 milliarder >256k kontekstvindu >Apache 2.0 helt åpen kildekode >40 % raskere og 3 ganger mer gjennomstrømning enn små 3 Men det som er verdt å være oppmerksom på er reasoning_effort-parameteren Du kan sette den til "ingen" for raske, lette responser Eller skru den opp til «høyt» for dyp steg-for-steg-resonnement Samme modell som gjør begge deler dette er et klart signal om hvor åpen kildekode-AI er på vei Selskapene er ferdige med å opprettholde fem forskjellige modeller for fem forskjellige oppgaver En modell som tilpasser seg basert på hva du trenger at den skal gjøre...