عملاء الذكاء الاصطناعي موجودون في كل العناوين الرئيسية. لكن التبني لا يزال يحدث في الغالب على مستوى الأفراد أو على مستوى الفريق الصغير. المؤسسات تتطلب نهجا مختلفا. في ورشتنا مع @UNDP و@UNDP_AltFinLab الأسبوع الماضي، شرح مؤسسنا ومديرنا التنفيذي @0x7SUN ما يتطلبه استخدام وكلاء الذكاء الاصطناعي بأمان وفعالية في سير العمل الحقيقي. الطوابع الزمنية: 00:00 فجوة كفاءة الذكاء الاصطناعي وتطور الذكاء الاصطناعي 10:26 كيف يعمل الذكاء الاصطناعي فعليا: نماذج اللغة الكبيرة، الهلوسات والإخفاقات الملحمية 25:12 أنظمة الوكلاء المتعددين: البنية والمخاطر 1:03:00 كيفية إدخال عملاء الذكاء الاصطناعي بأمان في المؤسسات (دراسات حالة) 1:24:00 القواعد الذهبية لاستخدام عملاء الذكاء الاصطناعي 1:27:00 أسئلة وأجوبة أبرز النقاط ↓
معظم الناس يعاملون الذكاء الاصطناعي كمحرك بحث يسترجع الحقائق، بينما هو ليس كذلك. الذكاء الاصطناعي هو محرك احتمالية. هذا يولد الكلمة التالية الأكثر منطقية، وليس الأكثر صدقا. هذه هي المعرفة الأساسية التي يجب فهمها قبل نشر وكلاء الذكاء الاصطناعي في أي مؤسسة.
هلوسات الذكاء الاصطناعي تحدث لأنها سمة من سمات عمل محركات الاحتمالات. الجزء الخطير هو أن الهلوسات تأتي ملفوفة بنحوية مصقولة ونبرة سلطوية. صناع القرار يتصرفون دون وعي بناء على بيانات ملفقة بالكامل. لهذا السبب التحقق هو اللعبة بأكملها.
يحول تكامل واجهات برمجة التطبيقات الذكاء الاصطناعي السلبي إلى وكلاء ذكاء اصطناعي قادرين على تصفح الويب، وكتابة الشيفرة، والوصول إلى قواعد البيانات، والعمل نيابة عن البشر. الذكاء الاصطناعي لا يصبح فقط أكثر قدرة، بل يصبح أكثر خطورة في الحكم. الذكاء الاصطناعي لا يصبح فقط أكثر قدرة بل يصبح أكثر خطورة في الحكم.
وكلاء الذكاء الاصطناعي الفرديون ينهارون تحت التعقيد، تماما كما أنك لن تعطي متدربا واحدا كل مهمة في المنظمة. النهج الأفضل هو أنظمة الوكلاء المتعددين، حيث يتولى كل وكيل دورا محددا. هكذا يمكن للأقسام أن تجعل الذكاء الاصطناعي أكثر موثوقية للعمل الحقيقي.
الذكاء الاصطناعي لديه ذاكرة محدودة. في الجلسات الطويلة، مثل المفاوضات متعددة الأيام أو التقارير المعقدة، يبدأ السياق المبكر في التلاشي. هذا هو "تأثير السمكة الذهبية". الحل هو إدارة الذاكرة النشطة: - إعادة صياغة التعليمات الأساسية بشكل دوري لتحديث تركيز الذكاء الاصطناعي - تقسيم المستندات الطويلة إلى أجزاء أصغر وأسهل في الإدارة - استخدام الملخصات للحفاظ على السياق الجاري
يساعد وكلاء الذكاء الاصطناعي في تحسين الكفاءة، لكن المخاطر الأمنية حقيقية. هناك عدة طرق لبناء ملف المخاطر: - النشر فقط في بيئات متحكم بها - تسجيل النشاط الصارم إلزامي - عزل الشبكة - بروتوكولات الرقابة البشرية غير قابلة للتفاوض
عادة ما يتطور الانضمام بالذكاء الاصطناعي في المؤسسات إلى ثلاثة مستويات: - المستوى 1: يستخدم نماذج اللغة الكبيرة المؤسسة الآمنة في بيئات مغلقة دون الاحتفاظ بالبيانات والوصول الخارجي، بشكل رئيسي للمهام الآمنة والبسيطة. - المستوى 2: يربط النماذج بالبيانات الداخلية عبر أنظمة RAG، بحيث تعكس المخرجات المعرفة المؤسسية الحقيقية. - المستوى 3: يبني سير عمل وكيلي مع وصول إلى الملفات وواجهة برمجة التطبيقات، والتي تتطلب حواجز صارمة، واختبارا، وإشرافا بشريا.
تظهر ثلاث دراسات حالة لماذا الهندسة التوجيهية مهارة إدارية وليست مهارة تقنية، وكيفية التحسن. دراسة حالة 1: الحل مع تعليمات التشغيل القياسية (SOPs) دراسة الحالة 2: فخ الهلوسة دراسة حالة 3: تحسين مخرجات الذكاء الاصطناعي باستخدام الشخصيات والقيود
القاعدة الذهبية لاستخدام الذكاء الاصطناعي في سير العمل: دائما اجعل البشر على اطلاع. ❌ لا تلصق البيانات المصنفة أبدا في أدوات الذكاء الاصطناعي العامة ❌ لا تنشر أبدا محتوى مولدا بالذكاء الاصطناعي دون تحقق مستقل ❌ لا تكلف أبدا بوكيل ذكاء اصطناعي مهام غامضة ومفتوحة ✅ دائما خصص شخصية لوكلائك ✅ دائما قدم تعليمات منظمة ✅ دائما نفذ التحقق الوقائي سيساعد هذا الإطار في منع الفشل الكبير للذكاء الاصطناعي في معظم الحالات.
‏‎138‏