المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
🚨 عاجل: بنت برينستون ذكاء اصطناعيا انتقل من عديم الفائدة تقريبا إلى شخصي بشكل كبير في 36 محادثة فقط.
في كل مرة تقول فيها للذكاء الاصطناعي "هذا خطأ" أو تسأله نفس السؤال مرتين لأنه لم يفهم النقطة، فإن رد الفعل هو أهم تغذية راجعة يمكن أن يتلقاها.
كل نظام ذكاء اصطناعي تم بناؤه اليوم يتجاهله تماما.
قامت شركة برينستون ببناء نظام يسمى OpenClaw RL يصلح هذه المشكلة.
الفكرة بسيطة: عندما تصحح الذكاء الاصطناعي، يتعلم من ذلك التصحيح في الحال. لا يوجد مهندسون متورطون. لا إعادة تدريب. فقط المحادثة التي تجريها بالفعل.
يراقب النموذج كيف ترد بعد كل رد:
> إعادة الطلب تعني أنه فشل
> الرد السلس يعني أنه نجح
مع مرور الوقت، يكتشف بالضبط ما تريده ويعدل ليتناسب معه.
في اختباراتهم:
> انتقل مساعد الذكاء الاصطناعي من شخص بالكاد مفيد إلى شخصية عالية في 36 محادثة فقط
> تعلم مساعد التقييم كتابة تعليقات أكثر دفئا وتفصيلا بعد 24 تفاعلا فقط
تحسنت ببساطة بمجرد استخدامه.
> درجة التخصيص السابقة: 0.17
> بعد 36 محادثة: 0.81
> لا إعادة تدريب، لا مهندسين، لا وقت فراغ
> يعمل بينما الذكاء الاصطناعي لا يزال يتحدث معك
كل كلمة محبطة "لا، هذا ليس ما قصدته" كتبتها كانت درسا مجانيا.
الذكاء الاصطناعي لم يحتفظ به أبدا. حتى الآن.

171
🚨 عاجل: عرض الباحثون الميتا نموذجا لمدة مليوني ساعة من الفيديو. لا تسميات. لا يوجد كتاب فيزياء. لا يوجد أي إشراف على الإطلاق.
ثم عرضوا مقطعا حيث يختفي جسم خلف جدار ولا يعود أبدا.
النموذج أشار إلى أنه خاطئ. 🤯
لقد تعلم ديمومة الشيء. قوام الشكل. ديناميكيات التصادم. كلها من المشاهدة.
وما هو أكثر إثارة للدهشة: حتى نموذج تم تدريبه على أسبوع واحد فقط من الفيديو الفريد حقق أداء فوق الصدفة في اكتشاف مخالفات الفيزياء. هذا ليس صدفة. هذا مبدأ.
النقطة الأساسية من الورقة: هذا يعمل فقط عندما يتنبأ النموذج في فضاء تمثيل مكتسب، وليس بالبكسل الخام. يجب على النموذج بناء نموذج عالم داخلي، مضغوط ومجرد، والتنبؤ بذلك. فشل التنبؤ بفضاء البكسل. نماذج اللغة الكبيرة متعددة الوسائط التي تفسر عبر النص تفشل. فقط البنية التي تبني تمثيلات مجردة مع التنبؤ بالمدخلات الحسية المفقودة، وهي شيء قريب من وصف علماء الأعصاب للترميز التنبؤي، تكتسب الحدس الفيزيائي فعليا.
وهذا يعني أن المعرفة الأساسية التي افترضوا الباحثون أنها مبرمجة قد تكون مجرد ملاحظة على نطاق واسع. يتعلم الأطفال ديمومة الأشياء من خلال مشاهدة الأشياء. اتضح أن نفس المبدأ ينطبق هنا.
الآن هذا هو الجزء الذي لا يتحدث عنه أحد.
إذا كانت الملاحظة وحدها تعلم النموذج قواعد العالم الفيزيائي، فماذا يحدث عندما تطبق نفس المبدأ على أنظمة الإنتاج؟
الإنتاج يحتوي أيضا على الفيزياء.
ليس الجاذبية. لكن القواعد متسقة بنفس القدر: أي النشر يسبب حوادث عند الساعة 3 صباحا، أي تركيبات الإعدادات تتفاعل بشكل خطير، أي مسارات الشيفرة تتدهور بهدوء تحت الحمل، أي تغييرات الخدمة تسبب أعطالا على بعد قفزتين. هذه الأنماط متجذرة في آلاف المسارات. دفع الكود، التحولات القياسية، مخالفات العملاء، جداول الحوادث. لم يلاحظ ذلك إلى حد كبير. بالتأكيد غير معنون.
لا أحد يكتب دفتر تشغيل يقول "إذا نشرت الخدمة أ مع العلم X نشط والخدمة ب فوق 70٪ من وحدة المعالجة المركزية، فإن التأخير في الخدمة ج ينخفض بنسبة 40٪ خلال 6 دقائق." لكن هذا النمط موجود. إنه قابل للتكرار. وهي موجودة الآن في بيانات قابلية الملاحظة الخاصة بك، غير مرئية لأن لا أحد قد بنى نموذجا للعثور عليها.
هذه هي الفجوة التي تحاول @playerzeroai تقليصها. ليس عداءا آخر من الاختبار. لا يوجد حد تنبيه آخر. نموذج عالم الإنتاج يتعلم الأشياء التي تنكسر من الملاحظة المتراكمة، بنفس الطريقة التي تعلم بها نموذج ميتا الجاذبية. لا يفحص تغطية اختبارك. يتنبأ بمسارات الفشل.
أسبوع واحد من الفيديو كان كافيا لأتعلم أن الأجسام الصلبة لا تمر عبر الجدران.
السؤال هو كم من مراقبة الإنتاج التي يحتاجها نظامك قبل أن يبدأ النموذج في التنبؤ بمكان تعطل جهازك التالي.
تشير ورقة ميتا إلى أن المعيار قد يكون أقل مما يتوقعه أي شخص.

103
ذكاؤك الاصطناعي كان ينسى بهدوء كل ما أخبرته بهدوء.
ليس بشكل عشوائي. ليس بصوت عال. بشكل منهجي. نبدأ بالقرارات التي تهم أكثر.
> القيد الذي وضعته قبل ثلاثة أشهر "لا تستخدم Redis أبدا، العميل رفض ذلك بعد حادثة إنتاج." اختفى. قيد منطقة نشر GDPR. اختفى. حد إعادة المحاولة الذي اختبرته تجريبيا بعد فشل السلسلة المتسلسلة. اختفى.
> العارضة لم تخبرك أبدا. بدأ للتو باستخدام الإعدادات الافتراضية.
> هذا يسمى فساد السياق. وكامبريدج وباحثو إندبندنت قاموا بقياس مدى سوء الحالة بالضبط.
> كل نظام ذكاء اصطناعي إنتاجي يعمل لفترة كافية سيضغط سياقه في النهاية ليفسح المجال لمعلومات جديدة. هذا الضغط يسبب فقدا كارثيا. اختبروا ذلك مباشرة: 2000 حقيقة مضغوطة عند 36.7× مما ترك 60٪ من قاعدة المعرفة غير قابلة للاسترجاع بشكل دائم. ليس هلوسة. لست مخطئا. اختفى فقط. النموذج أبلغ بصراحة أنه لم يعد لديه هذه المعلومات.
> ثم اختبروا شيئا أسوأ. لقد دمجوا 20 قيدا حقيقيا للمشروع في محادثة من 88 دورة، وهي نوع القيود التي تظهر بشكل طبيعي في أي مشروع طويل الأمد، ثم طبقوا الضغط المتدرج تماما كما تفعل أنظمة الإنتاج. بعد جولة واحدة: 91٪ محفوظ. بعد جولتين: 62٪. بعد ثلاث جولات: 46٪.
> استمر النموذج في العمل بثقة كاملة طوال الوقت. توليد مخرجات تنتهك القيود المنسية. لا يوجد إشارة خطأ. بدون تحذير. مجرد عودة صامتة إلى الأخطاء المعقولة التي كانت خاطئة في وضعك الخاص.
> اختبروا هذا على أربعة نماذج حدودية. كلود سونيت 4.5، كلود سونيت 4.6، أوبوس، GPT-5.4. كل واحدة منها انهار تحت الضغط. هذه ليست مشكلة نموذج. إنه معماري.
→ 60٪ من المعلومات تضيع بشكل دائم بعد مرور ضغط واحد
→ 54٪ من قيود المشروع اختفت بعد ثلاث جولات من الضغط المتدرج
انخفض → GPT-5.4 إلى 0٪ عند ضغط 2× فقط
→ حتى أوبوس احتفظ فقط بنسبة 5٪ من الحقائق عند ضغط 20×
→ تكلفة الذاكرة في السياق 14,201 دولار سنويا عند 7,000 حقيقة مقابل 56 دولارا سنويا للبديل
مختبرات الذكاء الاصطناعي تعرف هذا. حلهم هو نوافذ سياقية أكبر. نافذة الرمز ب 10 ملايين هي دلو أكبر. لا يزال دلوا. الانضغاط أمر لا مفر منه لأي نظام طويل الأمد. حجم النافذة يحدد فقط متى يبدأ النسيان، وليس ما إذا كان يحدث أم لا.

173
الأفضل
المُتصدِّرة
التطبيقات المفضلة