BEST lokale LLM's om in 2026 te draaien: ​ Hoge prestaties (24+ GB VRAM, bij voorkeur met meerdere GPU's) ​ • Kimi K2 - 1T params, 32B actief. MoE-beest • GLM-4.7 (Z AI) - 30B-A3B MoE, SWE-bench 73.8% • DeepSeek V3.2 - 671B / 37B actief. Nog steeds de open-source koning • Qwen3 235B-A22B - insane kwaliteit/kostenverhouding als je de hardware hebt ​ Middenklasse (16-24 GB VRAM / RAM) ​ • Qwen3 30B-A3B - presteert veel beter dan verwacht, stabiel op lange context • Gemma 3 27B - Google's beste open release tot nu toe • Nemotron 3 Nano 30B - Math500: 91%. Beste in zijn klasse als je wiskunde nodig hebt ​ Lichte modellen (8-16 GB RAM, kan draaien zonder een speciale GPU) ​ • Qwen3 8B / 4B / 1.7B - de beste kleine modelfamilie op dit moment • Gemma 3 4B - verrassend capabel op CPU • Phi-4 (14B) - Microsoft doet veel met weinig ​ De lokale AI-stack haalt echt in op de cloud