الذكاء الاصطناعي وأمن المعرفة الأكاديمية
*منى صوّان
يشهد العالم الأكاديمي تحوّلاً معرفيّاً متسارعاً نتيجة اندماج أدوات الذكاء الاصطناعي في أنشطة البحث والتعليم. فقد أصبحت هذه الأدوات وسيلة مساعدة في التلخيص، والتحليل، وإعادة الصياغة، ما يسّر العمليات البحثية وقلّل الزمن المستغرق في إنجازها.
غير أنّ هذا الاعتماد المتزايد يثير إشكالات جوهرية تتعلق بأمن البيانات وملكية المعرفة، خصوصاً حين تُستخدم هذه الأدوات دون وعي كافٍ بآليات عملها وحدودها التقنية والأخلاقية.
أمان زائف
يُخطئ بعض المستخدمين حين يفترضون أنّ رفع ملفاتهم إلى أدوات الذكاء الاصطناعي يتمّ في بيئة مغلقة وآمنة، وأنّ النظام يتعامل مع البيانات مؤقتاً ثم “ينساها”.
في الواقع، قد تحتفظ بعض النسخ المجانية أو الفردية بالبيانات لفترات محدّدة، أو تُستخدم لتطوير أداء النموذج اللغوي عبر دمجها في بيانات التدريب المستقبلية.
هذه الممارسة تثير إشكاليات تتعلّق بملكية النصوص البحثية وبإمكانية إعادة استخدامها في سياقات أخرى دون تصريح من أصحابها، وهو ما يُعدّ إخلالًا بالخصوصية البحثية ومصدراً محتملاً لتسرّب المعرفة الأكاديمية.
انعكاس البيانات
تظهر خطورة أخرى في ما يُعرف اصطلاحاً بـ"انعكاس البيانات" (Data Echo)، حيث يعيد النظام إنتاج عبارات أو أفكار سبق أن وردت في ملفات رُفعت إليه سابقاً.
هذا التكرار لا ينطوي على نيّة انتحال، لكنه قد يؤدي إلى تشويش في نَسب الأفكار والمصادر، ويقوّض مبدأ الأصالة العلمية الذي يُعدّ ركيزة في البحث الأكاديمي.
إنّ حدوث مثل هذه الحالات يستدعي مراجعة نقدية للحدود الفاصلة بين “المساعدة التقنية” و”المساهمة الفكرية”، وهو نقاش يتطلّب أطراً قانونية وأخلاقية محدّدة.

إجراءات وقائية
للحفاظ على الأمان المعرفي والملكية الفكرية، يمكن للباحثين اعتماد عدد من الممارسات الوقائية الأساسية:
1. مراجعة سياسات الخصوصية للتأكّد من كيفية استخدام البيانات.
2. تنقيح الملفات من الأسماء، والجداول الأصلية، والمعلومات الحسّاسة قبل الرفع.
3. اختيار المنصّات المؤسسية المأمونة التي لا تحتفظ بالبيانات بعد انتهاء الاستخدام.
4. تجنّب رفع الأبحاث غير المنشورة أو المشاريع المموّلة التي لم تُعلن نتائجها بعد.
5. توثيق استخدام الذكاء الاصطناعي في قسم المنهجية عند كتابة الرسائل أو المقالات العلمية.
تمثّل هذه الإجراءات الحدّ الأدنى من الضمانات التي تقي الباحث من المخاطر التقنية والقانونية على حدّ سواء.
البعد الأخلاقي
تسير التقنيات بوتيرة أسرع من قدرة المؤسسات التعليمية على تنظيمها. فبينما تحاول الجامعات تطوير سياسات النزاهة الأكاديمية لتستوعب الذكاء الاصطناعي، يظلّ الاستخدام الميداني له متقدّماً زمنياً ومعرفياً على التشريعات.
من ثمّ، فإنّ المسؤولية الأخلاقية الفردية للباحث باتت مكملة للمسؤولية المؤسسية. فالحفاظ على الأصالة الفكرية لم يعد شأناً إدارياً فحسب، بل هو التزام معرفي تجاه المجتمع العلمي.
يُعدّ الذكاء الاصطناعي أداة فاعلة في تطوير البحث والتعليم، غير أنّ الإفراط في الاعتماد عليه دون إدراك لطبيعة عمله قد يعرّض الجهد العلمي للتبديد أو الانتحال غير المقصود.
إنّ الوعي الرقمي هو صمام الأمان في هذا العصر، إذ لا يكفي أن نحسن استخدام التقنية، بل ينبغي أن نُدرك أثرها في بنية المعرفة ذاتها.
وقبل رفع أيّ ملفّ إلى أداة ذكاء اصطناعي، يبقى السؤال الجوهري:
هل أستخدم الذكاء الاصطناعي لخدمة بحثي... أم أقدّم له ثمرة جهدي العلمي؟
* باحثة ومتخصّصة في القيادة التربوية والذكاء الاصطناعي في التعليم
نبض