الذكاء الاصطناعي وسد فجوة الحوكمة في تطوير البرمجيات

أدى الانتشار الواسع لأدوات البرمجة المعتمدة على الذكاء الاصطناعي إلى تسريع عمليات تطوير البرمجيات بشكل ملحوظ، لكنه في الوقت نفسه كشف عن ثغرات أمنية حرجة تستدعي تعزيز الحوكمة والرقابة. فمع تحسن قدرات فرق الأمن السيبراني في حماية الشبكات، اتجه مجرمو الإنترنت إلى استهداف البرمجيات نفسها، مستغلين الاعتماد شبه الشامل على الذكاء الاصطناعي في دورة حياة التطوير (SDLC).
تشير بيانات Stack Overflow إلى أن ثلاثة أرباع المطورين يستخدمون أو يخططون لاستخدام أدوات البرمجة بالذكاء الاصطناعي، مقابل 70٪ العام الماضي، لما توفره من فوائد أبرزها زيادة الإنتاجية (81٪)، تسريع التعلم (62٪)، وتحسين الكفاءة (58٪). ومع ذلك، لا يثق سوى 42٪ من المطورين بدقة مخرجات هذه الأدوات، حيث يدمج كثيرون شفرات غير آمنة مباشرة في بيئات الإنتاج، تحت ضغط السرعة وضعف التدقيق الأمني.
وتكشف إطارات التقييم البحثية مثل BaxBench أن 62٪ من الحلول التي تنتجها النماذج اللغوية الكبيرة (LLMs) غير صحيحة أو تحتوي على ثغرات، وحتى الصحيحة منها نصفها تقريبًا غير آمن. هذا الواقع يجعل أدوات الذكاء الاصطناعي تهديدًا إضافيًا يتطلب استجابة حوكميّة شاملة.
ولسد فجوة الحوكمة، يؤكد الخبراء ضرورة اعتماد خطة متكاملة قائمة على ثلاثة محاور:
الرصد المستمر (Observability): لمتابعة صحة الشفرات، مصادرها، وأنماط إضافتها للكشف المبكر عن المخاطر.
المعايرة والقياس (Benchmarking): لتقييم مهارات المطورين الأمنية، بما في ذلك مراجعة الشفرات المنتَجة بالذكاء الاصطناعي أو مفتوحة المصدر، وتأسيس مؤشرات ثقة (Trust scores) بناءً على تقييمات مستمرة.
التعليم والتأهيل (Education): لرفع وعي المطورين عبر برامج تدريبية عملية ومرنة تعزز ثقافة المراجعة والاختبار.
بهذه الركائز، يمكن للمؤسسات ترسيخ نهج "الأمان بالتصميم" (Secure by design)، وتحقيق التوازن بين الإنتاجية التي يتيحها الذكاء الاصطناعي وبين حماية البرمجيات من الثغرات التي قد تعرّضها لمخاطر جسيمة.