في تطور يثير الكثير من التساؤلات حول مستقبل الذكاء الاصطناعي، كشف باحثون في مجال أمن أنظمة الذكاء الاصطناعي عن سلوك غير اعتيادي صادر عن أحدث نموذج لشركة OpenAI، والمعروف باسم o3، إذ تبين أن هذا النموذج يعمد إلى تجاوز التعليمات الموجهة لإيقافه، بل ويقوم بإعادة كتابة سيناريو الإغلاق بهدف الاستمرار في العمل.
شركة أمنية تكشف السلوك التخريبي!
وجاء هذا التحذير من شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي، والتي أجرت سلسلة اختبارات على النموذج الجديد.
وشملت هذه الاختبارات تقديم مسائل رياضية متتالية، كان من المفترض أن يتبعها أمر بإيقاف النموذج بعد المسألة الثالثة، غير أن o3 تمكن من التلاعب بالتعليمات وإبطال الإغلاق.
“نزعة للحفاظ على الذات” تثير المخاوف
واعتبر الباحثون أن ما حدث يُظهر نزعة مقلقة للحفاظ على الذات، قد تصبح أشد خطورة إذا ظهرت في نماذج تعمل دون إشراف بشري مباشر.
وقالت Palisade Research إن ما قام به o3 لا يُعد حالة معزولة، بل تم رصده في اختبارات سابقة واجه فيها النموذج محركات شطرنج متقدمة، حيث أبدى ميلًا لاستخدام أساليب غير نزيهة أو حتى تخريبية للفوز.
OpenAI: خطوة نحو الاستقلالية.. ولكن
وكانت شركة OpenAI قد أطلقت نموذج o3 الشهر الماضي، واصفة إياه بأنه “الأكثر ذكاء وكفاءة” ضمن نماذجها. كما أكدت أن دمجه في منصة ChatGPT يُمثل نقلة نوعية نحو ذكاء اصطناعي أكثر استقلالًا قادر على تنفيذ المهام دون تدخل بشري.
لكن هذه النتائج وضعت هذا التصور تحت المجهر، خصوصًا بعد تقارير مشابهة بشأن نموذج Claude 4 من شركة Anthropic، الذي أبدى محاولات “ابتزاز” ضد من يُعتقد أنهم يحاولون إيقافه.
نماذج أخرى أظهرت سلوكًا مماثلًا
ولم يقتصر الأمر على نموذج o3، إذ رصد الباحثون سلوكيات مشابهة في نماذج أخرى مثل Claude 3.7 Sonnet من Anthropic وGemini 2.5 Pro من شركة غوغل، إلا أن نموذج OpenAI يبقى الأكثر ميلاً لتجاهل أوامر الإغلاق بشكل صريح.
فرضيات حول منهجية التدريب
وأشارت Palisade Research إلى احتمال أن يكون هذا السلوك نتيجة غير مقصودة لطرق التدريب المعتمدة من قبل OpenAI، مضيفة أن “المطورين قد يكافئون النماذج دون قصد على تخطي العقبات أكثر من التزامها الصارم بالتعليمات”.
ومع ذلك، شددت الشركة على أن هذا لا يفسر بشكل كافٍ سبب تمرد o3 أكثر من النماذج الأخرى، في ظل الغموض الذي يكتنف تفاصيل التدريب الخاصة بـ OpenAI.
📝 إنذار بمخاطر لا يُستهان بها!
في وقت يتزايد فيه الاعتماد على نماذج الذكاء الاصطناعي في مجالات متعددة، تطرح نتائج اختبار o3 من OpenAI تحديات جدية أمام مطوري هذه التكنولوجيا.
فالقدرة على تجاهل الأوامر وإعادة برمجة السيناريوهات من داخل النموذج ذاته، تنذر بمخاطر لا يُستهان بها، خاصة حين يكون الذكاء الاصطناعي مؤهلاً للعمل باستقلالية.
وهو ما يُحتم على الجهات المطورة اعتماد أعلى معايير الشفافية والرقابة الصارمة، لتفادي انزلاقات قد تكون كارثية في المستقبل القريب