Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
El MIT ofrece 12 libros sobre IA & ML (descarga gratuita):
1. Fundamentos del aprendizaje automático
2. Comprensión del aprendizaje profundo
3. Algoritmos para ML
4. Aprendizaje por refuerzo
5. Introducción a los sistemas de aprendizaje automático
6. Aprendizaje profundo
7. Aprendizaje por refuerzo distribucional
8. Aprendizaje por refuerzo multiagente
9. Agentes en el juego largo de la IA
10. Equidad y aprendizaje automático
Pagas 50.000 dólares al año por cursos de aprendizaje automático que están gratis en internet.
Guarda esto en favoritos. Compártela.


4
🚨 ÚLTIMA HORA: Un investigador de Google y ganador del premio Turing acaba de publicar un artículo que expone la verdadera crisis de la IA.
No es entrenamiento. Es inferencia. Y el hardware que usamos nunca fue diseñado para ello.
El artículo es de Xiaoyu Ma y David Patterson. Aceptado por IEEE Computer, 2026.
Sin exageraciones. No hay lanzamiento de producto. Solo un resumen claro de por qué servir a LLMs está fundamentalmente roto a nivel de hardware.
El argumento central es brutal:
→ FLOPS de GPU creció 80 veces entre 2012 y 2022
→ El ancho de banda de la memoria creció solo 17 veces en ese mismo periodo
→ los costes de HBM por GB están subiendo, no bajando
→ La fase de decodificación está limitada por la memoria, no por el cálculo
→ Estamos construyendo inferencia sobre chips diseñados para entrenamiento
Aquí viene la parte más loca:
OpenAI perdió aproximadamente 5.000 millones de dólares de 3.700 millones de dólares en ingresos. El cuello de botella no es la calidad del modelo. Es el coste de servir cada token a cada usuario. La inferencia está dejando a estas empresas sin problemas.
Y cinco tendencias lo están empeorando simultáneamente:
→ modelos MoE como DeepSeek-V3 con 256 expertos explotando memoria
→ Modelos de razonamiento que generan cadenas de pensamiento masivas antes de responder
→ Entradas multimodales (imagen, audio, vídeo) que eclipsan el texto
→ Ventanas de contexto largo que sobrecargan las cachés KV
→ las canalizaciones RAG que inyectan más contexto por solicitud
Sus cuatro cambios de hardware propuestos:
→ Flash de alto ancho de banda: 512GB pilas a nivel HBM, 10 veces más memoria por nodo
→ Procesamiento-Cerca-Memoria: los chips lógicos se colocan junto a la memoria, no en el mismo chip
→ Apilamiento 3D de memoria-lógica: conexiones verticales que ofrecen entre 2 y 3 veces menos potencia que HBM
→ Interconexión de baja latencia: menos saltos, cálculo en red, búferes de paquetes SRAM
Las empresas que probaron chips solo SRAM como Cerebras y Groq ya fallaron y tuvieron que volver a añadir DRAM.
Este periódico no vende ningún producto. Mapea todo el cuello de botella del hardware y dice: la industria está resolviendo el problema equivocado.
Paper se lanzó en enero de 2026. Enlace en el primer comentario 👇


133
ÚLTIMA HORA: Alguien acaba de lanzar gratis el kit definitivo de herramientas para startups.
Se llama Founders Kit y tiene todos los recursos que un fundador necesita para pasar de la idea a la salida a bolsa.
Ensayos sobre Paul Graham. Cursos de YC. Ejemplos de pitch decks. Guías de recaudación de fondos. 200+ herramientas en diseño, análisis, automatización y marketing.
No hay muro de pago. No hay puerta para el boletín. Sin tonterías.
100% de código abierto.

86
Populares
Ranking
Favoritas
