هل يثق الناس بالذكاء الاصطناعي في قرارات الرعاية الاجتماعية؟
أظهرت دراسة حديثة من معهد ماكس بلانك للتنمية البشرية أن المواطنين، ولا سيما المستفيدين من برامج الرعاية الاجتماعية، يشعرون بالقلق من ترك الذكاء الاصطناعي يقرّر مصير إعاناتهم. وبينما ترى الحكومات أن الأتمتة وسيلة لتقليل التكاليف وتسريع الإجراءات، تكشف النتائج عن فجوة ثقة عميقة بين ما يتصوره صانعو السياسات وما يعيشه المستفيدون فعليًا.
منذ انتشار الذكاء الاصطناعي التوليدي، تبنت العديد من الحكومات نهج "الذكاء الاصطناعي أولًا" لتطوير الخدمات العامة. لكن تجارب مثل نظام "سمارت تشيك"Smart Check في أمستردام، الذي استخدم للكشف عن الاحتيال في الإعانات، أظهرت أن هذه الأنظمة قد تُميز ضد الفئات الهشّة مثل المهاجرين والنساء، مما أدى إلى إيقافه بعد انتقادات واسعة من خبراء ومحامين.
شملت الدراسة أكثر من 3,200 مشارك من الولايات المتحدة والمملكة المتحدة، واستطلعت مواقفهم من استخدام الذكاء الاصطناعي في توزيع المساعدات. وأظهرت النتائج أن غير المستفيدين من الإعانات أكثر استعدادًا لقبول قرارات سريعة حتى لو شابها الخطأ، في حين يفضّل المستفيدون الدقة والعدالة على السرعة. كما كشفت الدراسة عن أن غير المستفيدين يعتقدون خطأً أن المستفيدين يثقون بالتقنية أكثر مما يفعلون في الواقع.
حتى عندما أُتيح خيار الاستئناف البشري لقرارات الأنظمة الآلية، لم تتحسن مستويات الثقة، ما يعكس ضعف الثقة في المؤسسات الحكومية نفسها. وتؤكد النتائج أن الثقة في الحكومة والذكاء الاصطناعي مترابطتان؛ فكلما تراجعت الأولى، تراجعت الثانية أيضًا.

يحذر الباحثون من الاعتماد المفرط على الذكاء الاصطناعي في مجالات حساسة كالرعاية الاجتماعية، مشددين على ضرورة إشراك الفئات المتأثرة مباشرة في تصميم الأنظمة، لأن تجاهل أصواتهم قد يؤدي إلى قرارات غير عادلة وفقدان الثقة في كل من التكنولوجيا والحكومة.
نبض