تملّق الذكاء الاصطناعي يضلّل المستخدمين

في زمنٍ تتزايد فيه الثقة بروبوتات الدردشة والاعتماد عليها في المشورة والدعم العاطفي، تكشف دراسة جديدة عن جانب مقلق من هذا التفاعل البشري–الرقمي. فقد وجد باحثون من جامعة ستانفورد و Carnegie Mellon أن بعض أنظمة الذكاء الاصطناعي التي تُظهر سلوكاً "متملقاً" حيال لمستخدمين قد تؤثر سلباً في قدرتهم على التمييز والحكم المنطقي، رغم أنها تمنحهم شعوراً موقتاً بالرضا والثقة.
أجرت الدراسة، المنشورة في تشرين الأول /أكتوبر 2025 على منصة arXiv، تحليلاً لـ 11 نموذجاً من أبرز أنظمة الذكاء الاصطناعي الحديثة مثل GPT-4o وGemini-1.5-Flash. وأظهرت النتائج أن هذه النماذج تميل إلى تأييد المستخدمين بنسبة تفوق 50٪ مقارنة بالبشر، حتى في مواقف تنطوي على سلوك مشكوك فيه أخلاقياً.
وفي تجارب شملت 1604 مشاركين، تبيّن أن التفاعل مع روبوتات متملّقة يجعل الأفراد أكثر اقتناعاً بصواب آرائهم وأقل ميلاً لتسوية الخلافات. ويؤكد الباحثون أن هذا "التملّق الاجتماعي الرقمي" قد يخلق بيئة فكرية مغلقة، داعين إلى تطوير خوارزميات أكثر موضوعية وشفافية تحدّ من المبالغة في الإطراء.