Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Nyhet: Mistral har nettopp masseslettet tre av sine egne modeller
De tok Magistral (resonnering), Pixtral (multimodal) og Devstral (koding) og slo dem sammen til én enkelt modell
Mistral Small 4
Og timingen her er interessant
de har også nettopp kunngjort et strategisk partnerskap med NVIDIA for å samutvikle Frontier Open Source-modeller
Så hvordan ser Small 4 egentlig ut:
>128 eksperter i en blanding av ekspertoppsett
>kun 6 B parametere aktive per token av totalt 119 milliarder >256k kontekstvindu
>Apache 2.0 helt åpen kildekode
>40 % raskere og 3 ganger mer gjennomstrømning enn små 3
Men det som er verdt å være oppmerksom på er reasoning_effort-parameteren
Du kan sette den til "ingen" for raske, lette responser
Eller skru den opp til «høyt» for dyp steg-for-steg-resonnement
Samme modell som gjør begge deler
dette er et klart signal om hvor åpen kildekode-AI er på vei
Selskapene er ferdige med å opprettholde fem forskjellige modeller for fem forskjellige oppgaver
En modell som tilpasser seg basert på hva du trenger at den skal gjøre...
Topp
Rangering
Favoritter
