أسراب الذكاء الاصطناعي: تضليل رقمي جديد يهدّد أسس الديموقراطية
كشفت دراسة بحثية دولية حديثة عن تصاعد خطر جيل جديد من التضليل الإعلامي يعتمد ما يُعرف بـ"أسراب الذكاء الاصطناعي"، محذّرة من تأثيره العميق على النقاش العام والأنظمة الديموقراطية. الدراسة، التي نُشرت في مجلة Science وأعدّها فريق مرتبط بجامعة كونستانس الألمانية، تشير إلى أن عمليات التأثير لم تعد تعتمد على حسابات آلية بدائية يسهل كشفها، بل على مجتمعات رقمية متكاملة من شخصيات ذكاء اصطناعي تبدو حقيقية ومستقلة.
وتوضح الدراسة أن دمج نماذج اللغة الكبيرة بأنظمة متعددة الوكيل أتاح إنشاء أسراب من الشخصيات الاصطناعية القادرة على التنسيق في ما بينها، والتكيّف مع التفاعلات البشرية في الوقت الحقيقي، واختراق النقاشات داخل المجموعات الرقمية. والهدف الأساسي من هذا الأسلوب هو خلق ما يُسمّى "الإجماع الاصطناعي"، أي إعطاء انطباع مضلل بأن رأياً ما يحظى بتأييد واسع، حتى عندما تكون المعلومات محل خلاف أو غير صحيحة.
ولا يقتصر الخطر على نشر معلومات كاذبة فحسب، بل يمتد إلى التأثير في القيم والمعايير الاجتماعية، وربما إحداث تغييرات ثقافية تدريجية تمس لغة المجتمعات ورموزها وهويتها. كما تحذّر الدراسة من أن إغراق الإنترنت بمحتوى مُلفّق قد يلوّث بيانات تدريب أنظمة ذكاء اصطناعي أخرى، ما يوسّع دائرة التضليل ليشمل منصات وتقنيات معتمدة على نطاق واسع.
وفي مواجهة هذا التحدي، يدعو الباحثون إلى تطوير أدوات جديدة تركز على رصد السلوك المنسّق وتتبع مصادر المحتوى، بدل الاكتفاء بحذف منشورات فردية. كما يشددون على أهمية تقليص الأرباح الناتجة من التفاعل الزائف وتعزيز الشفافية والمساءلة، مؤكدين أن هذا التهديد لم يعد افتراضياً، بل بدأ يظهر بالفعل في الفضاء الرقمي.
نبض