🚨Không ai sẵn sàng cho tài liệu này. Mỗi LLM bạn sử dụng như GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen đều có một lỗi mà không có mức độ mở rộng nào có thể khắc phục. Chúng không thể phân biệt thông tin cũ với thông tin mới. Huyết áp của một bệnh nhân: 120 tại thời điểm phân loại. 128 mười phút sau. 125 khi xuất viện. "Đọc số mới nhất là gì?" Bất kỳ con người nào: "125, rõ ràng rồi." Mỗi LLM, khi đủ cập nhật tích lũy: sai. Không phải đôi khi sai. 100% sai. Không có độ chính xác. Hoàn toàn ảo tưởng. Mỗi mô hình. Không có ngoại lệ. Câu trả lời nằm ở cuối đầu vào. Ngay trước câu hỏi. Không cần tìm kiếm. Mô hình chỉ không thể từ bỏ các giá trị cũ. 35 mô hình đã được thử nghiệm bởi các nhà nghiên cứu từ UVA và NYU. Tất cả 35 đều theo cùng một đường cong tử vong toán học chính xác. Độ chính xác giảm theo logarit đến zero khi thông tin lỗi thời tích lũy. Không có cao nguyên. Không có phục hồi. Chỉ một đường thẳng đến thất bại hoàn toàn. Họ đã mượn một khái niệm từ tâm lý học nhận thức gọi là can thiệp chủ động, những ký ức cũ chặn khả năng nhớ lại những ký ức mới. Ở con người, hiệu ứng này đạt đến cao nguyên. Não của chúng ta học cách подавлять tiếng ồn và tập trung vào những gì hiện tại. LLMs không bao giờ đạt đến cao nguyên. Chúng giảm cho đến khi hoàn toàn hỏng. Các nhà nghiên cứu đã thử mọi thứ: "Quên các giá trị cũ" - hầu như không thay đổi được gì Chuỗi suy nghĩ - sụp đổ tương tự...