Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tu IA ha estado olvidando silenciosamente todo lo que le dijiste.
No de forma aleatoria. No en voz alta. De manera sistemática. Comenzando con las decisiones que más importan.
> La restricción que estableciste hace tres meses "nunca uses Redis, el cliente lo vetó después de un incidente en producción." Desaparecida. La restricción de la región de despliegue de GDPR. Desaparecida. El límite de reintentos que probaste empíricamente después de la falla en cascada. Desaparecido.
> El modelo nunca te lo dijo. Simplemente comenzó a usar valores predeterminados.
> Esto se llama deterioro del contexto. Y los investigadores de Cambridge e Independent acaban de cuantificar exactamente cuán malo es.
> Cada sistema de IA en producción que funciona el tiempo suficiente eventualmente comprimirá su contexto para hacer espacio para nueva información. Esa compresión es catastróficamente destructiva. Lo probaron directamente: 2,000 hechos comprimidos a 36.7× dejaron el 60% de la base de conocimiento permanentemente irrecuperable. No alucinado. No incorrecto. Simplemente desaparecido. El modelo informó honestamente que ya no tenía la información.
> Luego probaron algo peor. Integraron 20 restricciones de proyectos reales en una conversación de 88 turnos, el tipo de restricciones que emergen naturalmente en cualquier proyecto de larga duración, y luego aplicaron compresión en cascada exactamente como lo hacen los sistemas de producción. Después de una ronda: 91% preservado. Después de dos rondas: 62%. Después de tres rondas: 46%.
> El modelo siguió trabajando con plena confianza todo el tiempo. Generando salidas que violaban las restricciones olvidadas. Sin señal de error. Sin advertencia. Simplemente una reversión silenciosa a valores predeterminados razonables que resultaron ser incorrectos para tu situación específica.
> Esto se probó en cuatro modelos de frontera. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Cada uno colapsó bajo compresión. Este no es un problema del modelo. Es arquitectónico.
→ 60% de los hechos perdidos permanentemente después de una sola pasada de compresión
→ 54% de las restricciones del proyecto desaparecidas después de tres rondas de compresión en cascada
→ GPT-5.4 cayó a 0% de precisión con solo 2× de compresión
→ Incluso Opus retuvo solo el 5% de los hechos a 20× de compresión
→ La memoria en contexto cuesta $14,201/año por 7,000 hechos frente a $56/año por la alternativa
Los laboratorios de IA saben esto. Su solución son ventanas de contexto más grandes. Una ventana de 10 millones de tokens es un cubo más grande. Sigue siendo un cubo. La compactación es inevitable para cualquier sistema de larga duración. El tamaño de la ventana solo determina cuándo comienza el olvido, no si sucede.

Parte superior
Clasificación
Favoritos
