Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Deja de adivinar qué modelo de IA puede ejecutar realmente tu computadora.
Esta herramienta escanea tu hardware y te dice exactamente qué LLMs funcionarán. Un solo comando.
Se llama llmfit.
497 modelos. 133 proveedores. Verifica tu RAM, CPU y GPU, y luego clasifica cada modelo según lo que se ajusta.
No más descargar un modelo de 70B solo para verlo fallar.
Esto es lo que hace:
→ Detecta tu hardware exacto (NVIDIA, AMD, Intel Arc, Apple Silicon)
→ Elige la mejor cuantización que se ajuste a tu memoria
→ Califica cada modelo en calidad, velocidad, ajuste y longitud de contexto
→ Maneja configuraciones de múltiples GPU y arquitecturas MoE automáticamente
→ Se conecta a Ollama para que puedas descargar la mejor coincidencia al instante
Aquí está la parte más sorprendente:
Mixtral 8x7B tiene 46.7B de parámetros totales. La mayoría de las herramientas piensan que necesitas 24GB de VRAM. Pero solo 12.9B de parámetros están activos por token. llmfit lo sabe. Califica el requisito real en ~6.6GB.
Esa sola característica desbloquea modelos que la gente pensaba que no podían ejecutar.
brew install llmfit
6.5K estrellas en GitHub. Construido en Rust. Licencia MIT.
100% Código Abierto.

Parte superior
Clasificación
Favoritos
