ثغرة غير متوقّعة في نماذج الذكاء الاصطناعي تكشف البيانات بعد حذفها
في ظل الاعتماد المتزايد عالمياً على أنظمة الذكاء الاصطناعي في البحث عن المعلومات وإنجاز المهام بسرعة وكفاءة، أصبحت نماذج اللغة الكبيرة من أكثر الأدوات استخدامًا. هذه النماذج، التي تُدرَّب على مجموعات هائلة من النصوص، قادرة على إنتاج محتوى مكتوب بلغات متعددة، لكنها في الوقت نفسه تثير تساؤلات متزايدة حول مخاطرها الأمنية وإمكانية تعرضها للهجمات السيبرانية.
دراسة حديثة كشفت أن تعديلات نماذج الذكاء الاصطناعي قد تؤدي إلى تسريب بيانات حساسة عبر ما يُعرف بـ"بصمات التحديث". فقد أظهرت أبحاث أجراها فريق من معهد Shanghai Qi Zhi Institute وجامعات صينية عدة أن الإجراءات المستخدمة لإصلاح أخطاء النماذج أو حذف بيانات المستخدمين قد تُستغل من قبل مهاجمين لاستخراج معلومات سرية. ونُشرت نتائج الدراسة على خادم الأبحاث arXiv، مع طرح آلية للحد من هذا الخطر.

يشير الباحثون إلى أن نماذج اللغة الكبيرة، المُدرَّبة على تريليونات الرموز، قد تحتفظ بمعلومات حساسة. وتعتمد طريقة شائعة لتعديل هذه النماذج تُعرف بـ"التحديد ثم التعديل" على تغيير المعاملات الداخلية دون إعادة تدريب كاملة. غير أن الدراسة كشفت ثغرة أساسية في هذه الآلية، إذ يمكن لتحليل التحديثات أن يشكل قناة جانبية تمكّن المهاجمين من استعادة البيانات المعدَّلة.
وطوّر الفريق هجوماً من مرحلتين باسم KSTER يعيد بناء البيانات المحذوفة عبر تحليل "بصمة" التحديثات واستعادة سياقها الدلالي. وأظهرت التجارب نجاح الهجوم في استخراج معلومات حساسة من عدة نماذج لغوية. كما اقترح الباحثون استراتيجية دفاعية تُسمى «التمويه الفرعي» لإخفاء بصمات التحديث والحد من مخاطر إعادة البناء دون التأثير في فاعلية التعديل، بما يعزز مستقبل حماية البيانات في نماذج الذكاء الاصطناعي.
نبض