الأمن القومي في عصر الذكاء الاصطناعي
لم يعد الذكاء الاصطناعي مجرّد أداة لتحسين الإنتاجية أو تسريع البحث العلمي. فالضجّة التي أثيرت أخيراً بعد الحديث عن استخدام نموذج متقدّم تطوّره شركة Anthropic ضمن منظومة تحليل أمني، ساهمت في عملية توقيف ذات أبعاد سياسية، كشفت حقيقة أعمق بكثير من الحدث نفسه: نحن ندخل مرحلة تتحوّل فيها الخوارزميات إلى عنصر فاعل في هندسة القوة.
القضية ليست في أن نموذجاً ذكياً "اعتقل" شخصاً، فهذه مبالغة إعلامية. القضية الأهم أن الذكاء الاصطناعي بات جزءاً من بنية القرار الأمني، وعنصراً داخلاً في معادلة السيادة الوطنية.
من السلاح التقليدي إلى السلاح الخوارزمي
مرّ التاريخ العسكري بثلاث قفزات كبرى: البارود، ثم الثورة الصناعية، ثم التكنولوجيا الرقمية. واليوم نشهد القفزة الرابعة: عسكرة الذكاء الاصطناعي.
لم تعد المعركة تُحسم بالصواريخ أو الدبابات فحسب، بل بقدرة الدولة على تحليل مليارات النقاط البيانية في الزمن الحقيقي، واكتشاف الأنماط الخفية، والتنبؤ بالسلوك، وتحديد المخاطر قبل وقوعها. الذكاء الاصطناعي لا يضغط الزناد، لكنه قد يحدّد الهدف. وهنا تبدأ الإشكالية.

الشركات الخاصة كلاعب جيوسياسي
عندما تتعاون نماذج ذكاء اصطناعي متقدمة مع منصات تحليل بيانات أمنية مثل Palantir Technologies، فإننا أمام مشهد جديد: شركات خاصة تتحوّل إلى جزء من البنية الاستراتيجية للأمن القومي.
هذا التحوّل يطرح سؤالاً جوهرياً: هل ما زالت الدولة وحدها تحتكر أدوات القوة؟
في القرن العشرين، كانت القوة تُقاس بعدد الطائرات وحاملات الطائرات. أما في القرن الحادي والعشرين، فتُقاس أيضاً بعدد الخوادم، وجودة الخوارزميات، وعمق قواعد البيانات. وهنا يظهر لاعب جديد لا يخضع للانتخاب الشعبي ولا للمساءلة البرلمانية المباشرة: الشركة التقنية.
بين التحليل والقرار
من الضروري التمييز بين مستويين: التحليل الخوارزمي، والقرار السيادي.
الذكاء الاصطناعي يقدّم احتمالات وأنماطاً وتقديراتٍ للمخاطر، لكن القرار النهائي يبقى بيد الإنسان. غير أن المشكلة تكمن في "تأثير الثقة"؛ فكلما ازدادت دقة النموذج، ازدادت سلطة توصياته. ومع الوقت، قد يتحوّل القرار البشري إلى مجرد مصادقة شكلية على ما تقترحه الخوارزمية.
وهنا ندخل منطقة رمادية قانونياً وأخلاقياً، حيث تتداخل المسؤوليات وتتآكل الحدود بين المشورة التقنية والقرار السيادي.
المسؤولية: من يُحاسب الخوارزمية؟
إذا أدى تحليل خوارزمي إلى خطأ أمني جسيم، فمن يتحمّل المسؤولية؟
هل هي الدولة التي اعتمدت النظام؟
أم الشركة التي طوّرته؟
أم المهندس الذي كتب الشيفرة؟
القانون الدولي الإنساني لم يُصمَّم لعصر تتداخل فيه الشيفرة البرمجية مع القرار العسكري. فالمعاهدات الحالية تنظّم الأسلحة التقليدية والنووية والكيميائية، لكنها لا تنظّم "السلاح الخوارزمي". نحن، إذاً، أمام فجوة تشريعية عالمية آخذة في الاتساع.
السيادة الرقمية: معركة القرن الجديد
الدول التي لا تملك بنية ذكاء اصطناعي سيادية قد تجد نفسها معتمدة على شركات عابرة للحدود في أكثر ملفاتها حساسية. وهنا يتحوّل الذكاء الاصطناعي من أداة تقنية إلى عنصر جيوسياسي بامتياز.
من يتحكّم بالخوارزمية يتحكّم بتدفّق المعلومات. ومن يتحكّم بالمعلومات يؤثر في القرار. ومن يؤثر في القرار يمسّ جوهر السيادة.
لهذا بدأت دول كبرى تتحدث عن "السيادة الرقمية"، وتستثمر في تطوير نماذج وطنية وبنى تحتية مستقلة، إلى جانب سنّ تشريعات تنظّم استخدام الذكاء الاصطناعي في مجالي الأمن والدفاع.
نحو ميثاق عالمي جديد
كذلك وُضعت اتفاقات لتنظيم الأسلحة النووية، تبدو الحاجة ملحّة اليوم إلى إطار دولي ينظّم استخدام الذكاء الاصطناعي في المجالات العسكرية والأمنية. ميثاق يحدّد حدود الاستخدام، ومعايير الشفافية، وقواعد المساءلة، وضوابط منع الانحياز أو التلاعب.
فعسكرة الذكاء الاصطناعي ليست مسألة تقنية فحسب، بل مسألة توازن قوى عالمي يعاد تشكيله بهدوء ولكن بعمق.
الخوارزمية ليست بريئة
الذكاء الاصطناعي ليس خيراً مطلقاً ولا شراً مطلقاً؛ إنه انعكاس لمن يصمّمه ويغذّيه ويستخدمه. لكن إدخاله في معادلات الأمن القومي يغيّر طبيعة السلطة نفسها.
لم تعد السلطة حكراً على من يملك الأرض أو السلاح، بل أصبحت أيضاً لمن يملك البيانات والخوارزميات.
السؤال الذي يجب أن نطرحه اليوم ليس: هل يمكن الذكاء الاصطناعي أن يُستخدم في عمليات أمنية؟
بل كيف نضمن ألا يتحوّل إلى قوة غير خاضعة للمساءلة؟
لأن مستقبل الأمن العالمي لن يُرسم في غرف العمليات العسكرية فحسب، بل أيضاً في مراكز تطوير البرمجيات.
نبض