🚨 Hör auf zu raten, welches AI-Modell dein Computer tatsächlich ausführen kann. Dieses Tool scannt deine Hardware und sagt dir genau, welche LLMs funktionieren. Ein Befehl. Es heißt llmfit. 497 Modelle. 133 Anbieter. Es überprüft deinen RAM, CPU und GPU und bewertet jedes Modell danach, was passt. Kein Herunterladen eines 70B-Modells mehr, nur um zuzusehen, wie es abstürzt. Hier ist, was es tut: → Erkennt deine genaue Hardware (NVIDIA, AMD, Intel Arc, Apple Silicon) → Wählt die beste Quantisierung, die in deinen Speicher passt → Bewertet jedes Modell nach Qualität, Geschwindigkeit, Passform und Kontextlänge → Handhabt Multi-GPU-Setups und MoE-Architekturen automatisch → Verbindet sich mit Ollama, damit du das beste Match sofort herunterladen kannst Hier ist der verrückteste Teil: Mixtral 8x7B hat insgesamt 46,7B Parameter. Die meisten Tools denken, du benötigst 24GB VRAM. Aber nur 12,9B Parameter sind pro Token aktiv. llmfit weiß das. Es bewertet die tatsächlichen Anforderungen mit ~6,6GB. Dieses eine Feature allein schaltet Modelle frei, von denen die Leute dachten, sie könnten sie nicht ausführen. brew install llmfit 6,5K GitHub-Sterne. In Rust gebaut. MIT-Lizenz. 100% Open Source.