🚨 Slutt å gjette hvilken AI-modell datamaskinen din faktisk kan kjøre. Dette verktøyet skanner maskinvaren din og forteller deg nøyaktig hvilke LLM-er som vil fungere. Én kommando. Det kalles llmfit. 497-modeller. 133 tilbydere. Den sjekker RAM, CPU og GPU, og rangerer deretter hver modell etter hva som passer. Ikke mer nedlasting av en 70B-modell bare for å se den krasje. Slik fungerer det: → Oppdager din eksakte maskinvare (NVIDIA, AMD, Intel Arc, Apple Silicon) → Velger den kvantiseringen som passer best til hukommelsen din → Vurderer hver modell på kvalitet, hastighet, passform og kontekstlengde → Håndterer multi-GPU-oppsett og MoE-arkitekturer automatisk → kobler til Ollama slik at du kan laste ned den beste matchen umiddelbart Her er den villeste delen: Mixtral 8x7B har totalt 46,7B parametere. De fleste verktøy tror du trenger 24GB VRAM. Men bare 12,9 milliarder parametere er aktive per token. LLMFIT vet dette. Det har et reelt krav på ~6,6 GB. Den ene funksjonen alene låser opp modeller folk trodde de ikke kunne kjøre. brygginstallasjon llmfit 6,5K GitHub-stjerner. Bygget i rust. MIT-lisens. 100 % åpen kildekode.