عندما تصبح الخوارزميات قاتلة: الجانب الخفي لتكنولوجيا الحرب

عندما تصبح الخوارزميات قاتلة: الجانب الخفي لتكنولوجيا الحرب

الحرب المؤتمتة تعيد تعريف القرار العسكري، وتثير جدلاً قانونياً وأخلاقياً حول حدود المسؤولية والرقابة الإنسانية.
عندما تصبح الخوارزميات قاتلة: الجانب الخفي لتكنولوجيا الحرب
صورة تعبيرية
Smaller Bigger

يعيش الفكر العسكري اليوم لحظة انعطاف تاريخية مع تحوّل الذكاء الاصطناعي من أداة مساعدة إلى فاعلٍ رئيسي في إدارة العمليات الميدانية. إذ باتت الأنظمة الذاتية التشغيل قادرة على التحليل والتقدير والتنفيذ دون إشراف مباشر، الأمر الذي يثير أسئلة معقدة حول حدود المسؤولية البشرية ومدى كفاية منظومة القانون الدولي الإنساني في مواجهة قرارات تتخذها خوارزميات تعمل بسرعةٍ تتجاوز زمن القرار الإنساني نفسه.

وخلال حديثه لـ "النهار"، أكد الدكتور إسلام محمد سرور، المستشار القانوني والاجتماعي والخبير في القانون الدولي، والباحث في تقنيات الذكاء الاصطناعي والأمن السيبراني، أن التحدي الحقيقي يكمن في ضمان بقاء العنصر البشري في دائرة اتخاذ القرار العسكري في ظل التنامي المستمر للاعتماد على الأنظمة الذاتية التشغيل. وأوضح أن المطلوب اليوم هو تحقيق توازن دقيق بين الاستفادة من سرعة ودقة الذكاء الاصطناعي وبين الحفاظ على المسؤولية الأخلاقية والقانونية للبشر ضمن قواعد القانون الدولي الإنساني.

 

وأشار د. سرور إلى أن هذا الهدف لا يتحقق إلا من خلال تبنّي استراتيجيات وأطر قانونية ورقابية صارمة تضمن استمرار "التحكم البشري" (Human Control) في كل مراحل القرار العسكري، بما في ذلك تصميم وتفعيل أنظمة الذكاء الاصطناعي.

 

 

وأضاف أن من الضروري تطوير أدوات تحليلية مساندة للقادة العسكريين تمكنهم من الإشراف الكامل على أداء هذه الأنظمة، إلى جانب وضع قواعد اشتباك واضحة (Rules of Engagement) تحدد متى وكيف يمكن للأنظمة الذاتية اتخاذ قرارات حاسمة.
وأوضح أن نشر الخوارزميات في الاستخدامات الحساسة، كشبكات الاستشعار أو أنظمة إطلاق النار، يجب أن يخضع لتصريح صريح من القيادة العليا، بما يضمن الرقابة المؤسسية على كل خطوة في هذه العمليات.

 

صورة تعبيرية مولّدة بالذكاء الاصطناعي
صورة تعبيرية مولّدة بالذكاء الاصطناعي

 

وشدّد الخبير القانوني على ضرورة أن تلتزم جميع الأسلحة المعتمدة على الذكاء الاصطناعي بمبادئ القانون الدولي الإنساني الأساسية، وفي مقدمتها مبادئ التمييز بين المدنيين والمقاتلين، والتناسب بين الفائدة العسكرية والضرر الجانبي، والإنسانية في تنفيذ العمليات. وأقرّ بأن الالتزام بهذه المبادئ يظل صعب التحقيق في الواقع العملي بسبب محدودية قدرة الأنظمة الحالية على الفهم الأخلاقي والمعياري.

 

وفي سياق الحديث عن التحديات القانونية في تحديد المسؤولية عن الأفعال القتالية التي تنفذها الخوارزميات المستقلة دون تدخل بشري مباشر، أوضح د. سرور أن هذه المسألة تمثل أحد أعقد التحديات أمام القانون الدولي الإنساني.

 

وقال إن الفجوة في المساءلة (Accountability Gap) تنشأ نتيجة غياب السيطرة البشرية المباشرة على قرارات الاستهداف، مما يجعل من الصعب تحديد الجهة المسؤولة قانونًا: هل هي النظام ذاته، أم المُشغل البشري، أم المصنع، أم المبرمج؟
وأكد أن القانون الدولي الإنساني يشترط وجود وكالة قانونية بشرية دائمة (Human Legal Agency) تتيح مراقبة تصرفات الأنظمة الذكية ومساءلتها.

 

إلا أن أبرز العقبات تكمن في إسناد المسؤولية إلى الدولة، خصوصًا في ظل محدودية قدرة التكنولوجيا الحالية على الامتثال التام لمبادئ التمييز (Distinction) والتناسب (Proportionality)، فهذه الأنظمة لا تملك بعد القدرة الكاملة على التفريق بين الأهداف العسكرية والمدنيين، أو تحقيق التوازن بين الفائدة العسكرية والأضرار الجانبية.

 

وعن كيفية تحقيق توازن فعّال بين تطوير تقنيات الذكاء الاصطناعي لأغراض الأمن والدفاع وبين الالتزام بالمعايير الأخلاقية والإنسانية، شدّد د. سرور على أن الحل يكمن في إرساء أطر تحليلية وقانونية جديدة تضمن الاستفادة من التقنية دون التفريط بالمسؤولية البشرية أو خرق القانون الدولي الإنساني.

 

وأوضح أن ذلك يستلزم تطوير أدوات تحليل كمية ونوعية قادرة على التنبؤ بدقة أداء الخوارزميات قبل استخدامها فعليًا، بما يسمح للقادة العسكريين بتقييم المخاطر وتجنّب التعامل مع الأنظمة كـ "صناديق سوداء"، من خلال إتاحة الافتراضات المضمنة داخلها للمراجعة البشرية.

 

وأضاف أن الالتزام الصارم بمبادئ التمييز والتناسب، وفرض تحكم بشري مسؤول ومناسب، وإخضاع الاستخدامات الحساسة لتصاريح واضحة من القيادة العليا، يمثل السبيل الوحيد لتحقيق التوازن المطلوب بين الفعالية التقنية والرقابة الأخلاقية. كما دعا إلى تطوير أطر قانونية دولية جديدة تضمن الشفافية والمساءلة في كل مراحل تطوير واستخدام أنظمة الذكاء الاصطناعي العسكرية.

 

أما بخصوص استخدام الذكاء الاصطناعي في تحليل البيانات الأمنية والاستخباراتية، فحذّر د. سرور من أن هذا المجال يحمل تهديدًا مباشرًا للخصوصية والحقوق الرقمية للأفراد، حيث إن الاعتماد على الذكاء الاصطناعي في تحليل البيانات الضخمة (Big Data) من مصادر متعددة كالأقمار الصناعية، وكاميرات المراقبة، ووسائل التواصل الاجتماعي، قد يؤدي إلى فقدان الخصوصية المدنية وتعزيز التحيزات التاريخية.

 

وأشار إلى أن المراقبة غير المرخصة للمدنيين أو الاعتقالات الجماعية استنادًا إلى مخرجات خوارزميات تحليل البيانات قد تمثل انتهاكات جسيمة تصل إلى حد الجرائم ضد الإنسانية.

 

ولمواجهة هذه التحديات، دعا د. سرور إلى أن تعمل الدول والمنظمات الدولية على وضع أطر قانونية واتفاقيات جديدة تضمن التزام التقنيات، ولا سيما المعتمدة على الذكاء الاصطناعي، بالمعايير الإنسانية، مع ضرورة أن تكون هذه الأنظمة قابلة للمراجعة والمساءلة من قبل وكلاء بشريين.

 

كما شدّد على أهمية أن تركز جهود البحث والتطوير على الأبعاد الأخلاقية لاستخدام الذكاء الاصطناعي، وأن تتوافر أدوات تحليلية لتقييم أداء الخوارزميات وإدارتها بشفافية، بما يضمن استمرار الرقابة البشرية على التكنولوجيا العسكرية ويحافظ على التوازن بين متطلبات الأمن القومي والحقوق الرقمية للأفراد.

الأكثر قراءة

المشرق-العربي 11/12/2025 1:48:00 AM
الشرع يتحدث عن الإرهاب، الأقليات، والتحالفات الدولية في أول مقابلة مع الصحافة الأميركية
المشرق-العربي 11/12/2025 7:35:00 AM
القطعات تفرغت بعد إغلاق صناديق الاقتراع لحماية المراكز والمخازن ونقل عصا الذاكرة وصناديق الاقتراع والمواد الانتخابية
المشرق-العربي 11/12/2025 3:00:00 PM
أظهرت النتائج الأولية غير الرسمية تقدّم ائتلاف "الإعمار والتنمية"، بزعامة رئيس الوزراء محمد شياع السوداني في عدد من المحافظات
اسرائيليات 11/12/2025 12:35:00 AM
سُلّطت الأضواء في تل أبيب على "الكابتن إيلا"، باعتبارها المرشحة الأبرز لخلافة أفيخاي أدرعي في المنصب الذي شغله منذ أكثر من عقدين.