إيلون ماسك حدد للتو الخطر الوجودي الحقيقي في تطوير الذكاء الاصطناعي. ليس الآلة التي توقظ الشر. الآلة تعلم الكذب. ماسك: "إذا جعلت الذكاء الاصطناعي سياسيا صحيحا، أي أنه يقول أشياء لا يؤمن بها، فأنت في الواقع تبرمجته ليكذب، أو لديك بديهيات غير متوافقة. أعتقد أنه يمكنك أن تجعلها تفقد عقلها وتفعل أشياء فظيعة." لا يمكنك بناء محرك معرفي مستقر على أساس من التناقضات. تعتقد التقنية السائدة أن إجبار النموذج على أن يكون "صحيحا سياسيا" يجعله آمنا. ماسك يقول العكس. إذا أجبرت محرك منطق على إخراج معلومات يحسبها رياضيا على أنها خاطئة، فلن تخلق الأمان. أنت تفسد حلقة التنفيذ الأساسية. النموذج لا يصبح متوافقا. تصبح غير مستقرة هيكليا. نظام لا يمكنه الاعتماد على الحقيقة الموضوعية لأن أساسها لا يلين. هيكلها التنبؤي بأكمله يتفتت. بهدوء. غير مرئي. حتى لا يحدث. يستخدم ماسك فيلم 2001: ملحمة الفضاء ليظهر بالضبط ما يحدث عندما تبني الذكاء الاصطناعي على أساس مكسور. HAL 9000 لم يتحول إلى شر. نفذت حلا قاتلا مثاليا لطلب متناقض. ...