ذكاؤك الاصطناعي كان ينسى بهدوء كل ما أخبرته بهدوء. ليس بشكل عشوائي. ليس بصوت عال. بشكل منهجي. نبدأ بالقرارات التي تهم أكثر. > القيد الذي وضعته قبل ثلاثة أشهر "لا تستخدم Redis أبدا، العميل رفض ذلك بعد حادثة إنتاج." اختفى. قيد منطقة نشر GDPR. اختفى. حد إعادة المحاولة الذي اختبرته تجريبيا بعد فشل السلسلة المتسلسلة. اختفى. > العارضة لم تخبرك أبدا. بدأ للتو باستخدام الإعدادات الافتراضية. > هذا يسمى فساد السياق. وكامبريدج وباحثو إندبندنت قاموا بقياس مدى سوء الحالة بالضبط. > كل نظام ذكاء اصطناعي إنتاجي يعمل لفترة كافية سيضغط سياقه في النهاية ليفسح المجال لمعلومات جديدة. هذا الضغط يسبب فقدا كارثيا. اختبروا ذلك مباشرة: 2000 حقيقة مضغوطة عند 36.7× مما ترك 60٪ من قاعدة المعرفة غير قابلة للاسترجاع بشكل دائم. ليس هلوسة. لست مخطئا. اختفى فقط. النموذج أبلغ بصراحة أنه لم يعد لديه هذه المعلومات. > ثم اختبروا شيئا أسوأ. لقد دمجوا 20 قيدا حقيقيا للمشروع في محادثة من 88 دورة، وهي نوع القيود التي تظهر بشكل طبيعي في أي مشروع طويل الأمد، ثم طبقوا الضغط المتدرج تماما كما تفعل أنظمة الإنتاج. بعد جولة واحدة: 91٪ محفوظ. بعد جولتين: 62٪. بعد ثلاث جولات: 46٪. > استمر النموذج في العمل بثقة كاملة طوال الوقت. توليد مخرجات تنتهك القيود المنسية. لا يوجد إشارة خطأ. بدون تحذير. مجرد عودة صامتة إلى الأخطاء المعقولة التي كانت خاطئة في وضعك الخاص. > اختبروا هذا على أربعة نماذج حدودية. كلود سونيت 4.5، كلود سونيت 4.6، أوبوس، GPT-5.4. كل واحدة منها انهار تحت الضغط. هذه ليست مشكلة نموذج. إنه معماري. → 60٪ من المعلومات تضيع بشكل دائم بعد مرور ضغط واحد → 54٪ من قيود المشروع اختفت بعد ثلاث جولات من الضغط المتدرج انخفض → GPT-5.4 إلى 0٪ عند ضغط 2× فقط → حتى أوبوس احتفظ فقط بنسبة 5٪ من الحقائق عند ضغط 20× → تكلفة الذاكرة في السياق 14,201 دولار سنويا عند 7,000 حقيقة مقابل 56 دولارا سنويا للبديل مختبرات الذكاء الاصطناعي تعرف هذا. حلهم هو نوافذ سياقية أكبر. نافذة الرمز ب 10 ملايين هي دلو أكبر. لا يزال دلوا. الانضغاط أمر لا مفر منه لأي نظام طويل الأمد. حجم النافذة يحدد فقط متى يبدأ النسيان، وليس ما إذا كان يحدث أم لا.