Tu IA ha estado olvidando silenciosamente todo lo que le has contado. No de forma aleatoria. No en voz alta. Sistemáticamente. Empezando por las decisiones que más importan. > La restricción que estableciste hace tres meses es "nunca usar Redis, el cliente lo vetó tras un incidente de producción." Desaparecido. La restricción de la región de despliegue del RGPD. Desaparecido. El límite de reintentos que probaste empíricamente después del fallo en cascada. Desaparecido. > La modelo nunca te lo dijo. Simplemente empezó a usar los valores predeterminados. > Esto se llama podredumbre del contexto. Y los investigadores de Cambridge e Independent acaban de cuantificar exactamente lo grave que es. > Todo sistema de IA de producción que funcione lo suficiente acabará comprimiendo su contexto para dejar espacio a nueva información. Esa compresión es catastróficamente con pérdidas. Lo probaron directamente: 2.000 datos comprimidos al 36,7× dejaban el 60% de la base de conocimiento permanentemente irrecuperable. No alucinado. No es incorrecto. Simplemente desaparecida. El modelo honestamente informó que ya no tenía la información. > Luego probaron algo peor. Incorporaron 20 restricciones reales de proyecto en una conversación de 88 turnos, el tipo de restricciones que surgen de forma natural en cualquier proyecto de larga duración, y luego aplicaron compresión en cascada, exactamente como hacen los sistemas de producción. Tras una ronda: 91% conservado. Tras dos rondas: 62%. Tras tres rondas: 46%. > El modelo siguió trabajando con total confianza todo el tiempo. Generando salidas que violaban las restricciones olvidadas. No hay señal de error. Sin aviso. Solo una reversión silenciosa a valores razonables que resultaron estar mal para tu situación específica. > Probaron esto en cuatro modelos de frontera. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Cada uno de ellos colapsó bajo compresión. Esto no es un problema de modelos. Es arquitectónico. → 60% de los hechos se pierden permanentemente tras un solo paso de compresión → el 54% de las restricciones del proyecto desaparecieron tras tres rondas de compresión en cascada → GPT-5.4 bajó a un 0% de precisión con solo un 2× de compresión → Even Opus solo conservó el 5% de los hechos con una compresión del 20× → La memoria en contexto cuesta 14.201 dólares al año con 7.000 datos frente a 56 dólares al año para la alternativa Los laboratorios de IA lo saben. Su solución son ventanas de contexto más amplias. Una ventana de 10 millones de fichas es un cubo más grande. Sigue siendo un cubo. La compactación es inevitable para cualquier sistema de larga duración. El tamaño de la ventana solo determina cuándo empieza el olvido, no si ocurre.