الذكاء الاصطناعي بين التخييل النظري واستحقاقات الضبط المؤسسي
لا تكمن المشكلة في الذكاء الاصطناعي في قدراته التقنية بقدر ما تكمن في طبيعة الأسئلة التي يصرّ الخطاب العام على طرحها حوله. فمع توسع انتشار الأنظمة الذكية، يتزايد الميل إلى التعامل معها كما لو أنها كيان مرشّح لاكتساب صفات بشرية، الأمر الذي يدفع إلى طرح قضايا من نوع "الوعي" و"الشخصية القانونية" بوصفها إشكالات راهنة، رغم أنها لا تنتمي فعلياً إلى مستوى التعقيد الذي تفرضه آليات عمل هذه الأنظمة. هذا الانشغال بما هو رمزي أو افتراضي يحجب ما ينبغي أن يكون محور النقاش: كيفية إدارة الخوارزميات داخل المؤسسات، والحدود التي يجب وضعها لسلطة اتخاذ القرار الممنوحة للآلات، والضمانات اللازمة لمنع تحولها إلى أدوات غير خاضعة للمساءلة.
وفي هذا السياق، يوضح الدكتور محمد إسماعيل، الباحث والمدرب في التحول الرقمي، خلال حديثه لـ"النهار"، أن التركيز المتكرر على سؤال "وعي" الآلة يمثّل في كثير من الأحيان إلهاءً عن القضايا الجوهرية المرتبطة باستخدام الذكاء الاصطناعي. ويشرح أن هذا التركيز يمكن فهمه كعملية صرف للانتباه، سواء كانت مقصودة أو غير مقصودة، عن المشكلات الحقيقية.
ويبيّن أن صناعة الوهم تلعب دوراً حاسماً في ذلك، إذ إن الحديث عن مشاعر الآلة ووعيها يشبه الخيال العلمي الذي يجذب الناس والإعلام، لكنه يغطي على الحقيقة العلمية الأساسية بأن هذه الأنظمة ليست أكثر من "آلات حاسبة متطورة" تنفذ أوامر برمجية من دون امتلاك أي إدراك.
ويرى إسماعيل أن هذا الخطاب يتيح أيضاً مساحة للهروب من المسؤولية، إذا نجح البعض في إقناع الجمهور بأن الذكاء الاصطناعي "كائن مستقل" يفكر ويقرر، سيصبح ممكناً للشركات عند وقوع كوارث أن تقول: "الآلة هي التي أخطأت وليس الشركة"، في محاولة للتحرر من التعويض والمحاسبة.
ويتقاطع هذا الطرح مع الموقف العلمي السائد الذي يرفض الادعاءات بأن الذكاء الاصطناعي يسير نحو الوعي، إذ لا يوجد إطار علمي متماسك يسمح بإسقاط هذا المفهوم على أنظمة لا تمتلك أي شكل من أشكال الشعور أو الخبرة الذاتية. فالوعي، كما يؤكد علماء الأعصاب والفلاسفة، ظاهرة معقدة عصية على التحديد، ويصعب ربطها بخوارزميات احتمالية تعمل وفق معادلات رياضية.
وبعيداً عن الأسئلة الفلسفية، تُستخدم الأنظمة الذكية اليوم في مجالات بالغة الحساسية، من التشخيص الطبي إلى إدارة الموارد والعمليات الأمنية. وقد أظهرت تطبيقاتها العملية أنها قد تنتج تحيزات منهجية ناتجة عن طبيعة البيانات التي دُربت عليها، أو عن غياب آليات فعالة للرقابة على عملية اتخاذ القرار. كما أن قدرتها على إنتاج محتوى مقنع تثير مخاوف تتعلق بسلامة المعلومات، وبإمكانات التضليل السياسي والإعلامي.
ومن هنا تبرز أهمية الحوكمة بوصفها الإطار الذي يفرض على هذه الأنظمة ضوابط أخلاقية وقانونية واضحة. فالهدف ليس إبطاء التطور التكنولوجي، بل توجيهه ضمن مسارات قابلة للمساءلة والرقابة، تضمن ألا تتحول الأنظمة الذكية إلى قوى منفلتة. وتشمل الحوكمة الشفافية في تصميم الخوارزميات وإمكانية تفسير القرارات الآلية وتحديد المسؤوليات القانونية بوضوح.
ويتوافق هذا مع ما يطرحه الدكتور إسماعيل بشأن أهم عناصر الحوكمة اللازمة لضمان المساءلة، إذ يشدد على أن بقاء الذكاء الاصطناعي أداة لخدمة الإنسان وليس سلطة عليه يتطلب الالتزام بعدد من المبادئ الأساسية. ويعتبر أن القرار النهائي يجب أن يبقى بيد الإنسان، لأن الآلة لا ينبغي أن تتخذ قرارات مصيرية في مجالات مثل التوظيف أو فرض العقوبات، بل يجب أن تقتصر وظيفتها على تقديم الاقتراحات، بينما يبقى الإنسان هو صاحب القرار والتدقيق. ويشدد أيضاً على أن الشفافية ضرورة لا يمكن تجاوزها، إذ يجب أن تكون المؤسسة قادرة على شرح كيفية وصول النظام إلى قراره، لأن تطبيق قرار لا يمكن تفسيره على الناس يُعد تجاوزاً خطيراً.
ويؤكد كذلك أن المسؤولية القانونية يجب أن تقع على المالك أو المشغل وليس على الأداة ذاتها، تماماً كما في قوانين السير حيث يُحاسب السائق أو الشركة المصنعة في حال وقوع حادث، وليس السيارة نفسها.

وتبدو هذه المبادئ ضرورية أيضاً في مواجهة المقترحات التي تدعو إلى منح الذكاء الاصطناعي "شخصية قانونية"، وهي مقترحات قد تؤدي عملياً إلى تقويض مفهوم المسؤولية، لأنها تنشئ كياناً قانونياً بلا وعي ولا إرادة، وتسمح للجهات الفاعلة بالاختباء خلفه. ولذلك، يصبح توجيه النقاش نحو الحوكمة خطوة أساسية لضمان ألا يتحول الذكاء الاصطناعي إلى قوة غير منضبطة، بل يبقى ضمن إطار يسمح بتوجيهه وحماية المجتمعات من مخاطره المحتملة.
وفي النهاية، لا يعني نقل النقاش إلى الحوكمة إقصاء الأسئلة الفلسفية، بل إعطاء كل مجال حقه، بحيث تبقى الأسئلة النظرية في سياقها الطبيعي، بينما تُعالج التحديات الفعلية عبر أطر تنظيمية مرنة قادرة على مواكبة التطور، وتحافظ على التوازن بين قدرات التكنولوجيا ومسؤولية الإنسان في توجيهها.
نبض