كيف يواجه "المحتوى البشري" خطر اتّهامات الذكاء الاصطناعي الزّائفة؟
في ظلّ انتشار المعلومات المضلّلة المولّدة بالذكاء الاصطناعي على شبكات التواصل الاجتماعي، تبرز أدوات للكشف عن التضليل الإعلامي، لكنّها قد تكون مخادعة بدورها وهدفها أحياناً مجرّد ابتزاز المال، ما يزيد الطين بلّة.
وينبّه باحثون من خطر استخدام هذه الأدوات المريبة بسوء نيّة لتشويه سمعة جهات معيّنة والمساس بمصداقية محتويات أصلية.
وأحصى صحافيون من وكالة "فرانس برس" متخصّصون في الاستقصاء الرقمي ثلاث أدوات من شأنها أن تكشف إلى أيّ مدى تأثّر نصّ ما بالذكاء الاصطناعي.

وخلصت هذه الأدوات التي جرّبت بأربع لغات مختلفة إلى نتائج خاطئة مفادها أن بعض النصوص هي ثمرة الذكاء الاصطناعي، مع محاولة ابتزاز المال من مستخدميها.
وعلى سبيل المثال، قامت "جاست دان ايه آي" (JustDone AI) بتحليل مقالة عن الحرب في الشرق الأوسط من إعداد صحافيين وخلصت إلى أن محتواها مولّد بالذكاء الاصطناعي بنسبة 80%". واقترحت إعادة صياغته لإزالة آثار هذه التقنية.
وأشارت الصفحة إلى "إضفاء طابع بشري على النصّ المولّد بالذكاء الاصطناعي" قبل الإحالة إلى "نصّ أصلي بنسبة 100%" لا يُكشَف عنه إلا بعد تسديد مبلغ قد يصل إلى 9,99 دولارات.
وأنتجت أداتان أخريان، هما "تيكست غارد" (TextGuard) و"ريفاينلي" (Refinely) بدورهما نتائج خاطئة مع محاولة كسب المال.
أدوات "احتيال"
وأفاد الفريق التقني في "تيكست غارد" بأن "نظامنا يعمل بواسطة نماذج حديثة للذكاء الاصطناعي وتعدّ النتائج التي يقدّمها موثوقة في إطار تكنولوجيتنا".
وأضاف "لا يمكننا لا ضمان النتائج ولا مقارنتها بتلك الصادرة عن أنظمة أخرى".
وأشارت مجموعة "جاست دان" من جانبها إلى أنه "ما من كاشف للذكاء الاصطناعي يمكنه ضمان دقّة بنسبة 100%".
وأقرّت بأن نسختها المجانية "قد تعطي نتائج أقلّ دقّة" بسبب "الطلب الكبير واستخدام نظام مخفّف سريع النفاذ".
وجرّبت وكالة "فرانس برس" الأدوات مع نصوص عدة بشرية المصدر، بالهولندية واليونانية والمجرية والإنكليزية. وصُنّفت كلّ المحتويات في خانة الذكاء الاصطناعي، بما في ذلك مقتطفات أدبية مجرية كلاسيكية تعود لعام 1916.
وبدا أن "جاست دان" و"ريفاينلي" قادرتان على العمل حتّى بدون نفاذ إلى الإنترنت، ما يدفع إلى الظنّ أن النتائج الصادرة عنهما قد تكون آتية من نصّ معدّ مسبقاً أكثر مما هي ثمرة تحليل تقني معمّق.
وتقول ديبورا فيبر-فولف الأكاديمية المقيمة في ألمانيا التي أجرت أبحاثاً عن أدوات الكشف هذه "ليست أدوات كشف بل احتيال بحجّة إضفاء طابع بشري"، مشيرة إلى أنها تقدّم بدائل عبثية.
"المساس بالمصداقية"
وقد تستغلّ هذه الأدوات للمساس بالمصداقية. ففي المجر مثلاً، قال مؤثّرون موالون للحكومة في مطلع العام إن مستنداً أعدّته المعارضة في إطار حملة انتخابية كان بالكامل ثمرة الذكاء الاصطناعي.
وبغية تدعيم أقوالهم، نشروا على شبكات التواصل الاجتماعي لقطات شاشة فيها خلاصات "جاست دان".
وتهدف الأدوات التي جرّبتها الوكالة خصوصاً إلى جذب طلّاب أو باحثين يريدون إخفاء آثار استخدامهم للذكاء الاصطناعي. وقالت شركتان تعملان في هذا المجال إن المستخدمين هم من جامعات عريقة، مثل كورنيل في شمال شرق الولايات المتحدة.
وأكّدت الجامعة من جهتها "عدم وجود أيّ علاقة رسمية مع الشركات التي توفّر أدوات كشف عن الذكاء الاصطناعي"، مستبعدة أن تقدّم هذه الأدوات "حلاً فعلياً" لسوء استخدام هذه التكنولوجيات.
وقد يلجأ المدقّقون في صحّة الأخبار، إلى أدوات كشف قائمة على الذكاء الاصطناعي للتحقّق من الصور وعمليات التلاعب. لكنها تُستخدم بالإضافة إلى أدوات أخرى تكميلية ولا يسلّم بنتائجها على نحو قاطع.
نبض