تكنولوجيا

الذكاء الاصطناعي في ساحات الحرب: عندما تتحول الخوارزميات إلى صانع قرار قاتل

بقلم/ سيداتي بيدا/التحدي الإفريقي

في قلب التصعيد العسكري المتسارع في الشرق الأوسط، يبرز عامل جديد يعيد تشكيل ملامح الحروب الحديثة: الذكاء الاصطناعي. فمع تزايد التقارير عن استخدام أنظمة توجيه مدعومة بالخوارزميات في تحديد الأهداف العسكرية، تتصاعد المخاوف من أن تتحول هذه التكنولوجيا إلى أداة خطيرة عندما تُستخدم دون رقابة بشرية كافية.

تشير تقارير وتحليلات عسكرية إلى أن إسرائيل تعتمد بشكل متزايد على أنظمة تحليل بيانات وتحديد أهداف مدعومة بالذكاء الاصطناعي، في نهج يشبه إلى حد كبير الأنظمة التي أثير حولها جدل واسع خلال العمليات العسكرية في غزة، مثل نظامي “الإنجيل” و”اللافندر”.

 

هذه الأنظمة مصممة لمعالجة كميات هائلة من البيانات بسرعة فائقة لتحديد مواقع يُشتبه بارتباطها بنشاطات أمنية أو عسكرية.

لكن المشكلة لا تكمن في قدرة الخوارزميات على المعالجة السريعة بقدر ما تكمن في حدود فهمها للسياق البشري. فالحادثة التي جرى تداولها حول قصف موقع يحمل اسم “حديقة الشرطة” في طهران والذي قيل إن الذكاء الاصطناعي صنفه هدفًا مرتبطًا بالشرطة اعتمادًا على الاسم فقط تعكس بوضوح الخطر الكامن في الاعتماد المفرط على الأنظمة الآلية دون تدقيق بشري معمق.

في مثل هذه الحالات، قد تتحول الخوارزمية من أداة مساعدة إلى مصدر خطأ كارثي. فالذكاء الاصطناعي، مهما بلغت دقته التقنية، يظل في النهاية نظامًا يعتمد على البيانات والأنماط الإحصائية، وليس على الفهم الحقيقي للواقع أو إدراك التعقيدات الاجتماعية والجغرافية للمناطق المستهدفة.

هذا التحول يطرح أسئلة أخلاقية وقانونية عميقة حول طبيعة الحرب في عصر التكنولوجيا. فالقانون الدولي الإنساني يقوم على مبدأين أساسيين: التمييز بين الأهداف العسكرية والمدنية، والتناسب في استخدام القوة. غير أن تقليص دور الإنسان في عملية اتخاذ القرار العسكري قد يقوض هذين المبدأين، خصوصًا عندما تتحول الخوارزميات إلى فلاتر أولية وربما نهائية لتحديد من يصبح هدفًا ومن يُستثنى.

كما أن الاعتماد الواسع على الذكاء الاصطناعي في ساحات القتال قد يفتح الباب أمام سباق تسلح تقني بين الدول، حيث تسعى كل جهة إلى تطوير أنظمة أكثر سرعة واستقلالية في اتخاذ القرار. وفي مثل هذا السباق، قد يصبح تقليص الرقابة البشرية إغراءً خطيرًا باسم الكفاءة والسرعة.

الحروب لطالما كانت مأساوية بطبيعتها، لكن إدخال الذكاء الاصطناعي إلى مركز عملية الاستهداف يهدد بنقل المأساة إلى مستوى جديد. فحين تتخذ الخوارزميات قرارات الحياة والموت، يصبح الخطأ التقني كارثة إنسانية.

ويبقى السؤال الأكثر إلحاحًا: هل سيبقى الإنسان صاحب القرار الاخير في الحروب ،ام ان الخوارزميات بدأت بالفعل في إعادة كتابة قواعدها .؟

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى