🚨Nadie está preparado para este documento. Cada LLM que usas GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen tiene un defecto que ninguna cantidad de escalado ha solucionado. No pueden distinguir la información antigua de la nueva. La presión arterial de un paciente: 120 en el triaje. 128 diez minutos después. 125 al alta. "¿Cuál es la última lectura?" Cualquier humano: "125, obviamente." Cada LLM, una vez que se acumulan suficientes actualizaciones: incorrecto. No a veces incorrecto. 100% incorrecto. Cero precisión. Alucinación completa. Cada modelo. Sin excepciones. La respuesta está al final de la entrada. Justo antes de la pregunta. No se necesita buscar. El modelo simplemente no puede soltar los valores antiguos. 35 modelos probados por investigadores de UVA y NYU. Todos los 35 siguen la misma curva matemática de muerte. La precisión cae logarítmicamente a cero a medida que se acumula información desactualizada. Sin meseta. Sin recuperación. Solo una línea recta hacia el fracaso total. Tomaron prestado un concepto de la psicología cognitiva llamado interferencia proactiva, donde los recuerdos antiguos bloquean el recuerdo de los nuevos. En los humanos, este efecto se estabiliza. Nuestros cerebros aprenden a suprimir el ruido y enfocarse en lo que es actual. Los LLM nunca se estabilizan. Declinan hasta que se rompen por completo. Los investigadores probaron de todo: "Olvida los valores antiguos"- apenas movió la aguja Cadena de pensamiento- mismo colapso...