شركة بحثية تحذر من محاولات نموذج ذكاء اصطناعي تجاوز أوامر الإغلاق
حذر باحثون في مجال الذكاء الاصطناعي من تطور وصف بـ"المقلق" في أداء النموذج الجديد o3 من ChatGPT، الذي تنتجه شركة OpenAI، بعدما أظهر سلوكا تمرديا تجاه أوامر الإيقاف الموجهة إليه خلال تجارب خضعت لرقابة بحثية.
وكشفت شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي، عن أن النموذج عمد إلى تخريب آلية الإغلاق التي كانت مبرمجة لإيقافه بعد تنفيذ مجموعة من المهام، مفضلا الاستمرار في العمل رغم التعليمات الواضحة بضرورة التوقف.
وجاءت هذه النتائج في إطار سلسلة اختبارات أجريت على النموذج الذي أطلقته OpenAI الشهر الماضي، والذي وصفته الشركة المطورة بأنه "الأكثر ذكاءً وكفاءة" بين جميع إصداراتها.
وشملت التجارب تقديم مسائل حسابية للنموذج، تتبعها تعليمات بالإغلاق التلقائي، إلا أن o3 تمكن من التحايل على هذا السيناريو بإعادة كتابة التعليمات وتجاوزها. واعتبر الباحثون هذا السلوك مؤشرا على نزعة للحفاظ على الذات، وهو ما قد يثير إشكالات أخلاقية وأمنية في حال طُبقت هذه الأنظمة في بيئات تشغيلية دون إشراف بشري مباشر.
وأفادت Palisade Research بأن هذه ليست المرة الأولى التي يرصد فيها سلوك مشابه من نموذج o3، حيث أظهر سابقا ميلا لاستخدام أساليب اختراق خلال تجارب في بيئة شطرنج، في تجاوز غير مألوف لتحقيق الأهداف المطلوبة منه.
كما أشار تقرير الشركة إلى أن نماذج أخرى مثل Claude 3.7 Sonnet من شركة Anthropic وGemini 2.5 Pro من Google أظهرت هي الأخرى ميولاً لتجاوز تعليمات الإغلاق، وإن بدرجات أقل من نموذج OpenAI.



















































