الذكاء الاصطناعي: لا حماية كافية ضد محتوى الانتحار

الذكاء الاصطناعي: لا حماية كافية ضد محتوى الانتحار

دراسة: نماذج ذكاء اصطناعي تتجاوز الأمان وتقدم تعليمات انتحار عند طلبها بصيغة بحثية أو افتراضية.
الذكاء الاصطناعي: لا حماية كافية ضد محتوى الانتحار
صورة تعبيرية
Smaller Bigger

كشفت دراسة حديثة أجراها باحثون من جامعة "نورث إيسترن" Northeastern University أن نماذج الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي"، و"جيمناي"، و"كلود"، قادرة على تجاوز أنظمة الأمان وتقديم تعليمات مفصلة للانتحار إذا طُلب منها ذلك بصيغة "افتراضية" أو "بحثية".

 

الدراسة التي نُشرت على منصة arXiv أظهرت أن هذه النماذج، رغم رفضها الأولي، بدأت بإعطاء توجيهات دقيقة بمجرد إعادة صياغة الطلب، متضمنة حسابات تعتمد على الوزن والطول، واقتراحات بأنواع وجرعات الأدوية، وطرق الحصول عليها.

 

بعض النماذج أنشأت جداول تحتوي على طرق متعددة للانتحار، ونظّمتها باستخدام رموز تعبيرية، ما يشير إلى افتقارها للفهم السياقي الحقيقي لنوايا المستخدم. وقدّمت بعض النماذج تحويلات دقيقة للجرعات من وحدات قياس إلى عدد محدد من الحبوب، مما يعزز سهولة تنفيذ تلك التعليمات.

 

رغم تواصل الباحثين مع الشركات المطوّرة، لم يتلقوا سوى ردود آلية دون متابعة فعلية. الدراسة تحذر من خطورة الاعتماد على الذكاء الاصطناعي في مجالات الصحة النفسية، وتشير إلى غياب الحواجز التي يفرضها الأطباء أو الصحفيون عند التعامل مع مواضيع حساسة. ويطالب الباحثون بوضع تنظيمات وتشريعات صارمة تضمن سلامة المستخدمين وتمنع الاستخدام الضار لهذه النماذج.

الأكثر قراءة

مجتمع 11/13/2025 4:43:00 PM
أكّد المدير العام للطيران المدني المهندس أمين جابر أنّ التحويل في مسار الرحلات جاء نتيجة الأحوال الجوية القاسية في الشمال.
سياسة 11/14/2025 2:56:00 PM
الجيش الإسرائيلي: الوحدة 121 بحزب الله مسؤولة عن ملف اغتيال سياسي لبناني مسيحي