.اشترك في نشرتنا الإخبارية لتحصل على أهم و أبرز أخبار اليوم
شكرا على الاشتراك في نشرتنا الاخباريّة
استعادت أجهزة الاستخبارات الإسرائيلية زخمها بعد فشلها الذريع في 7 تشرين الأول (أكتوبر) 2023 في أعقاب الهجوم الإرهابي الذي نفذته "حماس". وقد ساعد التحسن الكبير في المعلومات الاستخبارية إسرائيل على تعقّب كبار قادة "حماس" و"حزب الله" وقتلهم، إلى جانب العديد من كبار القادة والمسؤولين الآخرين في هاتين الجماعتين المسلّحتين.
إن كيفيّة تمكّن إسرائيل من تطوير قدراتها الاستخبارية في هذه الفترة الزمنية القصيرة ستكون موضوع نقاش بين المتخصّصين لسنوات عديدة مقبلة. أحد العوامل، أو القدرات، التي يجب إدراجها في هذا النقاش هو الذكاء الاصطناعي، وكيف استفادت إسرائيل منه في دورة استخباراتها لتحقيق أهدافها العسكرية في غزة وأماكن أخرى.
وبعد فترة وجيزة من 7 تشرين الأول (أكتوبر)، بدأت إسرائيل بالاعتماد على الذكاء الاصطناعي في تحديد أهداف "حماس". وتسارعت هذه العملية مع استمرار الحرب والحاجة السياسية الملحّة لإضعاف القدرات العسكرية للحركة.
لقد كان للذكاء الاصطناعي آثاره في جميع مراحل تطوير أهداف الجيش الإسرائيلي. حيث كان قادراً على إنتاج آلاف الأهداف للجيش الإسرائيلي. لكن الطريقة التي استخدم بها ضباط المخابرات الإسرائيلية ورؤساؤهم تلك المعلومات أمرٌ مقلقٌ للغاية وربما يتعارض مع القانون الدولي. فالاحتفاظ بكنز دفين من المعلومات، التي ساعد الذكاء الاصطناعي في توفيرها شيء، واستخدامها بشكل صحيح ووفقاً للمعايير والأنظمة الدولية شيء آخر. إن امتثال إسرائيل للقانون الإنساني الدولي في غزة ولبنان مشكوك فيه في أحسن الأحوال.
ومع ذلك، من السخف إلقاء اللوم على الذكاء الاصطناعي في قتل إسرائيل لهذا العدد الكبير من المدنيّين في غزة ولبنان. فالأمر كله يبدأ بقرار بشري، وقد كانت سياسة إسرائيل، لا سيما في المراحل الأولى من الحرب على غزة، هي التمهّل في متطلّبات الاستهداف. فالهجمات المدعومة بالذكاء الاصطناعي أقل استهلاكاً لليد العاملة، بينما تتطلّب العمليات الاستخبارية "العادية" مزيداً من الموارد البشرية والمالية وكذلك الاستشارة القانونية. كان القصف الإسرائيلي العشوائي ينطوي على خطر سقوط أعداد أكبر من الضحايا المدنييّن، ولكن السلطات الإسرائيلية وافقت على كل ذلك (رغم أن هذا الإذن كان ينحسر ويتراجع طوال الحرب اعتماداً على الإدانة الدولية والضغوط الأميركية).
ستعتمد الجيوش في جميع أنحاء العالم بشكل متزايد على الذكاء الاصطناعي، سواء في العمليات الدفاعية أو الهجومية، لتحقيق أهدافها. ولكن هناك العديد من التحديات التي تنتظرنا، بعضها تقني والبعض الآخر قانوني وأخلاقي.
وعلى الرغم من أن قدرات الذكاء الاصطناعي مثيرة للإعجاب، إلا أنها لا تخلو من العيوب (والتي سيستمر المطوّرون في معالجتها، تماماً مثل أي تقنية أخرى). فالذكاء الاصطناعي ليس بالذكاء الذي يبدو عليه. لنفترض أنك أعطيت الذكاء الاصطناعي مهمة معالجة صورة ما، وإذا اختلفت المهمّة قليلاً عن مجموعة التدريب التي قمت بتطويرها للذكاء الاصطناعي، فسوف يعاني أو يفشل في تحديد المحتوى بدقة. كل ما يتطلبه الأمر هو إضاءة ضعيفة أو زاوية مائلة أو شيء محجوب جزئياً لإرباك الوحدة النمطية. يمكن معالجة نقاط الضعف هذه من خلال تدريب أكثر شمولاً وتحديداً للبرنامج، ولكن النقطة المهمة هنا هي أن الذكاء الاصطناعي لن يتجاوز ما يُطلب منه تحديداً، ولا يزال التأليف البشري والتعليمات البشرية أمراً بالغ الأهمية.
على الرغم من أن الذكاء الاصطناعي يعمل بجد، إلا أنه لا يستطيع القيام بمهام متعدّدة. على سبيل المثال، في العمليات الاستخبارية، يستطيع الإنسان تحديد الهدف، وتحديد نظام السلاح الأنسب للاشتباك، والتنبّؤ بمساره، ثم ضرب الهدف في النهاية. ولا يمكن لنظام ذكاء اصطناعي واحد أن يقوم بمفرده بكل هذه المهام في وقت واحد. بل يمكن لمجموعة من أنظمة الذكاء الاصطناعي القيام بذلك، حيث تقوم نماذج منفصلة بأداء مهام منفصلة، ولكن هذا التزامن يمثل تحدياً تقنياً ومكلفاً للغاية. نحن لم نصل إلى هذه المرحلة بعد.
تعدّ كيفية اتخاذ الذكاء الاصطناعي لقراراته نقطة ضعف مهمّة ومشكلة محتملة. فالكثير مما يحدث داخل نظام الذكاء الاصطناعي هو صندوق أسود وليس هناك الكثير مما يمكن أن يفعله الإنسان لفهم كيفية اتخاذ النظام لقراراته. وهذه مشكلة كبيرة بالنسبة للأنظمة عالية المخاطر مثل تلك التي تتخذ قرارات المشاركة أو التي قد تُستخدم نتائجها في عمليات اتخاذ القرارات الحرجة. إن القدرة على تدقيق النظام ومعرفة سبب ارتكابه للخطأ أمر مهم من الناحيتين القانونية والأخلاقية.
ومع ذلك، رغم هذه العيوب والتحديات والشكوك، ستواجه الجيوش، في جميع أنحاء العالم، ضغوط تنافسية لزيادة اعتمادها على الذكاء الاصطناعي. فالرغبة في اكتساب ميزة اتخاذ القرار في حالات السلم والأزمات والحروب ستكون موجودة دائماً. لا أحد يريد أن يصبح متأخراً لا سيما في هذه البيئة التي تتسم بالمنافسة الشديدة بين القوى العظمى.
من خلال تحسين التعليم والتدريب، يمكن معالجة بعض نقاط ضعف الذكاء الاصطناعي ومخاطره والتخفيف من حدّتها. ففي المجال العسكري، يجب أن يكون هناك قدر أكبر من الإشراف والتدخل البشري لتقليل احتمالية فشل الذكاء الاصطناعي واحتواء عواقبه. يجب على البشر تحديد معايير ومتطلّبات أنظمة الذكاء الاصطناعي المستخدمة في سياقات صنع القرار. كما يجب عليهم ألا يثقلوا كاهل الذكاء الاصطناعي بمهام أكثر ملاءمة للحكم البشري بما في ذلك تفسير نوايا الخصم وتحليلها على سبيل المثال.
*رئيس برنامج الدراسات الأميركية الشرق أوسطية في "مؤسسة تريندز للبحوث والاستشارات"