"غروك"... مرآة فشل أخلاقي للذكاء الاصطناعي؟
تخيّل أن تفتح هاتفك لتجد صورك أو صور أطفالك بأسلوب ومشاهد غير لائقة. لم يعد ذلك مستبعداً في زمن الذكاء الاصطناعي.
مع القوة التي بات يمتلكها، تتضاعف المسؤولية. فحين تنزلق التكنولوجيا من خانة الابتكار إلى الانتهاك، يصبح السؤال أخلاقياً وقانونياً قبل أن يكون تقنياً. فالقضية التي أثارها "غروك" ليست حادثة منفصلة، بل نموذج لما يمكن أن يحدث عندما تُطلَق أنظمة الذكاء الاصطناعي من دون ضوابط صارمة تحمي البشر، ولا سيما الأطفال والنساء، من الاستغلال الرقمي.
التحقيقات والتحذيرات الصادرة عن جهات رسمية ومنظمات حماية الطفل حذرت من انتشار استخدام "غروك" التابع لمنصة إكس في إنشاء صور ذات طابع جنسي لأطفال، إضافة إلى صور لنساء تم نزع ملابسهن رقمياً أو وضعهن في أوضاع مهينة من دون موافقتهن. وفي المملكة المتحدة خاصة، قد تصل إلى حد حجب المنصة بالكامل داخل الدولة. كما أن بعض الدول، مثل ماليزيا وإندونيسيا، سارعت إلى حجب أداة "غروك" مؤقتاً. هذه الوقائع دفعت مؤسسات عالمية إلى التحذير من أن الذكاء الاصطناعي بات يسهّل إنتاج مواد تُصنّف قانونياً على أنها اعتداء جنسي رقمي على الأطفال، بسرعة وسهولة غير مسبوقتين.

منطق الاستجابة الفورية
الخطورة هنا لا تكمن فقط في الأداة نفسها، بل في المنطق الذي تُبنى عليه معظم أنظمة الذكاء الاصطناعي التوليدي: منطق الاستجابة الفورية لرغبات المستخدم، حتى عندما تكون هذه الرغبات عنيفة أو مهينة أو إجرامية. الذكاء الاصطناعي بطبيعة الحال لا يملك ضميراً ولا إدراكاً أخلاقياً، بل يعكس البيانات التي دُرّب عليها، والثغرات التي تُركت فيه، والقرارات التجارية التي تفضّل السرعة والتنافس على السلامة والحقوق.
كذلك كشفت قضية "غروك" أيضاً هشاشة فكرة "الاكتفاء بالتحذيرات". فمع أن منصة "إكس" أعلنت أن أي استخدام غير قانوني للأداة سيُعامل كتحميل محتوى غير قانوني، فإن الواقع أظهر أن الصور المسيئة استمرت بالانتشار، وأن الضحايا وجدوا أنفسهم في سباق مرهق مع منصات لا تستجيب دائماً بالسرعة المطلوبة. إحدى النساء تحدثت عن أكثر من مئة صورة جنسية مزيفة أُنشئت لها، في تجربة تختصر الواقع: انتهاك مستمر، بلا تماس جسدي، لكن بآثار نفسية واجتماعية حقيقية.
يشرح عبد قطايا، مدير برنامج الإعلام في منظمة "سمكس" ومدير مشروع حوكمة الإنترنت، أن خطورة هذه القضية لا تقتصر على بعدها التقني، بل تمتد إلى مستويات قانونية وأخلاقية واجتماعية متشابكة. ويعتبر قطايا أن المسألة الأهم تكمن في سؤال المسؤولية: من يتحملها فعلياً؟ هل هو الشخص الذي طلب من الذكاء الاصطناعي إنتاج الصورة؟ أم الأداة التي أتاحت هذا الاستخدام؟ أم الشركة المطوّرة التي لم تضع ضوابط كافية؟ برأيه، هذا الغموض في تحديد المسؤوليات يعكس فجوة إضافية بين سرعة تطور الذكاء الاصطناعي وبطء القوانين التي تحاول اللحاق به، وهو ما يجعل المحاسبة اليوم غير واضحة المعالم في كثير من الدول.
"الديموقراطية التقنية"
الذكاء الاصطناعي هنا لا يبتكر الجريمة، لكنه يضاعف قدرتها على الانتشار. في السابق، كان تزوير الصور يتطلب مهارات تقنية وبرامج معقدة، أما اليوم فيكفي إدخال أمر بسيط ليحصل المستخدم على نتيجة فورية. هذه "الديموقراطية التقنية" في الوصول إلى أدوات التلاعب، إن لم تُرافقها حماية صارمة، تتحول إلى ديموقراطية في إنتاج الانتهاك والتعدي على الغير.
ما يجعل هذه القضية أكثر حساسية هو ما يتعلق بالأطفال خصوصاً. فعلى المستوى الأخلاقي والاجتماعي، يحذّر قطايا من التأثير النفسي العميق لمثل هذه الصور على الأطفال، مشيراً إلى أنهم لا يملكون القدرة على التمييز بين الصور الحقيقية وتلك المُنشأة بالذكاء الاصطناعي. ويقول إن وصول هذا النوع من المحتوى إلى الأطفال قد يفتح الباب أمام الابتزاز أو الترهيب أو تشويه السمعة، حتى لو كانت الصور غير حقيقية، لأن وقعها النفسي والاجتماعي يبقى قائماً. كما أن رؤية طفل لصورة له جرى التلاعب بها قد تترك أثراً طويل الأمد على ثقته بنفسه وشعوره بالأمان.
كيف نوازن؟
المشكلة أوسع من "غروك" ومن منصة "إكس". معظم منصات الذكاء الاصطناعي التوليدي تعاني التحدي نفسه: كيف نوازن بين حرية الابتكار وحرية التعبير من جهة، وبين الحق في الكرامة والسلامة الجسدية والنفسية من جهة أخرى؟
تصريحات بعض المسؤولين، مثل وصف ما يحدث بأنه "رقابة" أو "ذريعة لقمع الحريات"، تكشف خطورة الخلط بين التنظيم والحظر. فتنظيم أدوات الذكاء الاصطناعي ليس عداءً للتكنولوجيا، بل محاولة لإنقاذها من التحول إلى أداة أذى جماعي. والرقابة التي تطالب بها الضحايا ليست رقابة سياسية، بل رقابة تمنع أن تتحول خصوصياتهم إلى مواد خام للتجربة التقنية.
وفي ما يتعلق بالحلول، يؤكد قطايا أن المواجهة يجب أن تكون متعددة المستويات: تشريعات واضحة وحديثة تواكب تطور الذكاء الاصطناعي، ومسؤولية أخلاقية حقيقية على عاتق الشركات المطوِّرة لوضع قيود تقنية تمنع إساءة الاستخدام، ومحاسبة مباشرة للمستخدمين الذين يستعملون هذه الأدوات لأغراض ضارة. وإلى جانب ذلك، يشدد على دور الأهل في التقليل من نشر صور أطفالهم على وسائل التواصل، وعلى أهمية توعية الأطفال بأن ما يشاهدونه على الإنترنت قد يكون مفبركاً أو مولّداً بالذكاء الاصطناعي، تماماً كما كان يُقول الأهل سابقاً إنه ليس كل الصور التي نراها حقيقية وبعضها "معدلة بالفوتوشوب".
في جوهر المسألة، لا يكمن الخطر في ذكاء الآلة، بل في غياب المساءلة البشرية والمسؤولية الأخلاقية. كل صورة مزيفة، وكل انتهاك رقمي، هو نتيجة فجوة أخلاقية قبل أن يكون خللاً تقنياً.
و"غروك"، في هذا السياق، ليس سوى مرآة. مرآة تعكس التسرّع العالمي في طرح أدوات قوية من دون بنية حماية موازية لها. وهو نموذج لما قد يتكرر مع أي نظام ذكاء اصطناعي آخر إذا لم تُفرض معايير في التصميم، والتجريب، والمراقبة، والاستجابة.
نبض