دراسة: من يتحمّل خطأ الذكاء الاصطناعي؟
مع تزايد اعتماد المجتمعات على أنظمة الذكاء الاصطناعي في العمل والإنتاج واتخاذ القرار، يتصاعد الجدل حول الجهة التي يجب أن تتحمل المسؤولية عند وقوع ضرر ناتج عن أداء هذه الأنظمة. فرغم انتشارها الواسع، لا تمتلك تقنيات الذكاء الاصطناعي وعياً أو إرادة، ما يجعل مساءلتها مباشرة أمراً غير ممكن وفق الأطر الأخلاقية التقليدية.
تشير دراسة حديثة صادرة عن جامعة بوسان الوطنية في جمهورية كوريا الجنوبية إلى أن الإشكال لا يتعلق فقط بالوعي، بل بطبيعة تشغيل هذه الأنظمة نفسها، إذ تعتمد على عمليات معقدة وغير شفافة وتعمل بدرجة من الاستقلالية تجعل من الصعب التنبؤ بكل نتائجها. وبذلك تنشأ "فجوة المسؤولية" التي لا يمكن سدّها من خلال النظريات الأخلاقية المعتادة القائمة على النية والقصد والإدراك الذاتي.
وتوضح الدراسة أن أنظمة الذكاء الاصطناعي تفتقر إلى القدرات التي تُعد شرطاً لتحميل المسؤولية الأخلاقية، مثل فهم البعد الأخلاقي للأفعال، امتلاك نوايا واضحة، أو القدرة على تفسير قراراتها. كما أنها لا تتمتع بسيطرة كاملة على سلوكها، لأنها تعمل ضمن حدود تصميمها وبرمجتها.

وللتعامل مع هذا الواقع، تستعرض الدراسة طرحاً فلسفياً جديداً يدعو إلى تبني مفهوم "المسؤولية الموزّعة"، بحيث يتقاسم مختلف الأطراف — من مطورين ومستخدمين ومشرفين على الأنظمة — واجب الرقابة والحد من الأضرار، مع إمكانية توسيع نطاق المسؤولية ليشمل الأنظمة الأكثر استقلالية في المستقبل.
ويرى الباحثون أن هذا النهج يوفر إطاراً عملياً للتعامل مع الأخطاء غير المتوقعة التي قد تسببها أنظمة الذكاء الاصطناعي، ويسهم في تعزيز الممارسات الأخلاقية في تصميمها وتشغيلها والحد من تكرار الأضرار.
نبض