NEJLEPŠÍ místní LLM pro spuštění v roce 2026: ​ Vysoký výkon (24+ GB VRAM, ideálně s více GPU) ​ • Kimi K2 - 1T param, 32B aktivní. MoE bestie • GLM-4.7 (Z AI) - 30B-A3B MoE, SWE-bench 73,8 % • DeepSeek V3.2 - 671B / 37B aktivní. Stále král open-source • Qwen3 235B-A22B – šílený poměr kvality k ceně, pokud máte žehličku ​ Střední třída (16-24 GB VRAM / RAM) ​ • Qwen3 30B-A3B – dosahuje výrazně větší váhy, stabilní na dlouhém kontextu • Gemma 3 27B – Nejlepší otevřené vydání od Googlu dosud • Nemotron 3 Nano 30B - Math500: 91 %. Nejlepší ve třídě, pokud potřebujete matematiku ​ Lehké modely (8-16 GB RAM, mohou běžet i bez dedikované GPU) ​ • Qwen3 8B / 4B / 1.7B – nejlepší malá modelová rodina v současnosti • Gemma 3 4B – překvapivě schopná na CPU • Phi-4 (14B) – Microsoft dělá hodně s malým ​ Lokální AI stack skutečně dohání cloud