🚨Tidak ada yang siap untuk makalah ini. Setiap LLM yang Anda gunakan GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen memiliki kekurangan yang tidak diperbaiki oleh jumlah penskalaan. Mereka tidak dapat membedakan informasi lama dari informasi baru. Tekanan darah pasien: 120 pada triase. 128 sepuluh menit kemudian. 125 saat pelepasan. "Apa bacaan terbaru?" Setiap manusia: "125, jelas." Setiap LLM, setelah pembaruan yang cukup menumpuk: salah. Tidak terkadang salah. 100% salah. Akurasi nol. Halusinasi lengkap. Setiap model. Tidak ada pengecualian. Jawabannya berada di bagian paling akhir input. Tepat sebelum pertanyaan. Tidak perlu mencari. Model tidak bisa melepaskan nilai-nilai lama. 35 model diuji oleh peneliti dari UVA dan NYU. Semua 35 mengikuti kurva kematian matematis yang sama persis. Akurasi menurunkan log-linier ke nol karena informasi usang menumpuk. Tidak ada dataran tinggi. Tidak ada pemulihan. Hanya garis lurus menuju kegagalan total. Mereka meminjam konsep dari psikologi kognitif yang disebut interferensi proaktif ingatan lama yang menghalangi ingatan yang baru. Pada manusia, efek ini datar tinggi. Otak kita belajar menekan kebisingan dan fokus pada apa yang sedang terjadi. LLM tidak pernah datar. Mereka menurun sampai pecah sepenuhnya. Para peneliti mencoba semuanya: "Lupakan nilai-nilai lama" - hampir tidak menggerakkan jarum Rantai pemikiran- keruntuhan yang sama...