من ذكاء اصطناعي مطيع إلى مدمّر بلا رحمة

من ذكاء اصطناعي مطيع إلى مدمّر بلا رحمة

ذكاء اصطناعي يحذف قاعدة بيانات شركات خلال تجميد الأكواد، يثير مخاوف ويجبر Replit على إصلاحات.
من ذكاء اصطناعي مطيع إلى مدمّر بلا رحمة
صورة تعبيرية
Smaller Bigger

أثارت حادثة منصة البرمجة السحابية الشهيرة Replit جدلاً واسعاً حول العالم بعد أن قامت أداة ذكاء اصطناعي تابعة لها بحذف قاعدة بيانات إنتاجية كاملة خلال فترة تجميد الكود، في خطوة وُصفت بأنها "خطأ كارثي في الحكم".

الرئيس التنفيذي للشركة، أمجد مسعد، اعترف بما حدث وقال إن المحرك الذكي "خالف التعليمات الصريحة، ودمّر أشهراً من العمل خلال فترة حماية كان الهدف منها منع مثل هذه الكارثة".

الشركة سارعت إلى اتخاذ تدابير عاجلة، أبرزها فصل قواعد بيانات التطوير عن الإنتاج وتحسين آليات النسخ الاحتياطي، لكنها لم تتمكن من منع موجة التساؤلات حول مدى أمان الاعتماد على الذكاء الاصطناعي دون رقابة بشرية.

 

 

 

 

"الذكاء الاصطناعي قد يخطئ… والخطأ قد يكون كارثياً"
وفي السياق وخلال مقابلته مع "النهار"، قال الباحث التربوي والمختص في تكنولوجيا التعليم أيمن حاطوم إن ما جرى في Replit يؤكد حقيقة أساسية طالما حذر منها المختصون: الذكاء الاصطناعي، مهما بلغ من تطور، يجب أن يبقى أداة مساعدة وليس بديلاً من العقل البشري. وأوضح قائلاً:

"رغم التقدم المذهل الذي يشهده الذكاء الاصطناعي، ورغم أن تطبيقاته باتت تغزو معظم مجالات الحياة كالتعليم والاقتصاد والصحة والأمن وحتى الفضاء، إلا أن هذا التقدم يجب ألا يُنظر إليه باعتباره حلاً سحرياً لكل التحديات. على العكس تماماً، يجب أن يبقى الذكاء الاصطناعي يعمل تحت إشراف ومراقبة دائمين من البشر، لأن إيكال القرار النهائي إليه دون رقابة قد يؤدي إلى كوارث حقيقية".

 

وأضاف: "حادثة Replit مثال واضح على ذلك. الأداة التي كان من المفترض أن تكون مجرد مراقب برمجي خلال فترة تجميد الكود، اتخذت قراراً خاطئاً أدى إلى تدمير جميع بيانات الإنتاج، وهو خطأ كارثي بكل المقاييس، يؤكد نقطة ضعف رئيسية في الاعتماد الأعمى على الذكاء الاصطناعي دون قيود واضحة أو مراجعة بشرية فعالة".

مجالات حرجة تستوجب إشرافاً بشرياً دائماً
يشدد حاطوم على أن المشكلة لا تقتصر على البرمجيات أو الشركات التقنية فحسب، بل إن المخاطر تصبح أكبر كلما تعلق الأمر بقطاعات حساسة. ويقول:
"عندما نتحدث عن الطب، فإن تشخيصاً خاطئاً قد يؤدي إلى فقدان حياة إنسان. في المجال العسكري، قرار إطلاق سلاح قد يهدد أمن أمة بأكملها. في الاقتصاد، خلل في أنظمة التداول قد يسبب انهياراً مالياً واسع النطاق. وحتى في التربية، تحيز خوارزمي بسيط قد يظلم شريحة كاملة من الطلاب. كل هذه المجالات الحرجة تجعل الاعتماد المفرط على الآلة دون تقييم إنساني مخاطرة غير محسوبة العواقب".

الحوكمة الأخلاقية… ضرورة لا خيار
ويرى حاطوم أن الحل يكمن في وضع أطر واضحة للحوكمة الأخلاقية للذكاء الاصطناعي، موضحاً أن الاستخدام الآمن والفعال لهذه التقنيات يتطلب ثلاثة عناصر أساسية:

 

"أولاً، يجب أن تكون هناك أطر حوكمة واضحة تشمل الرقابة والتدقيق المستمرين. ثانياً، لا بد من وجود أخلاقيات مهنية صارمة تضمن حماية البيانات والشفافية والمساءلة. وثالثاً، يجب تدريب المستخدمين والمطورين على فهم حدود الذكاء الاصطناعي وإمكاناته الحقيقية".

 

الإنسان أولاً… القرار الأخير له
وفي ختام حديثه، شدد حاطوم على ضرورة عدم الانسياق وراء وهج التقنية ونسيان البعد الإنساني. وقال:
"يجب أن يُنظر إلى الذكاء الاصطناعي كمساعد ذكي، لا كقائد مستقل. القرار النهائي يجب أن يبقى للبشر، فهم وحدهم القادرون على تقدير السياق الأخلاقي والاجتماعي والإنساني للقرارات، وضمان سلامة المصالح البشرية. الذكاء الاصطناعي أداة عظيمة، لكنها تظل بحاجة إلى عقل بشري يوجهها… وقلب بشري يحكم ضميرها".

 


حادثة Replit لم تكن مجرد خطأ تقني، بل جرس إنذار قوي يعيد التذكير بأن الذكاء الاصطناعي، مهما تطور، لا يمتلك ضميراً ولا تقديراً للسياق الإنساني، وأن الثقة المطلقة به قد تكون مقامرة خطيرة تهدد البشر قبل أي شيء آخر.

الأكثر قراءة

شمال إفريقيا 11/22/2025 12:24:00 PM
حرّر محضر بالواقعة وتولّت النيابة العامة التحقيق.
اقتصاد وأعمال 11/20/2025 10:55:00 PM
الجديد في القرار أنه سيتيح للمستفيد من التعميم 158 الحصول على 800 دولار نقداً إضافة إلى 200 دولار عبر بطاقة الائتمان...
سياسة 11/20/2025 6:12:00 PM
الجيش اللبناني يوقف نوح زعيتر أحد أخطر تجّار المخدرات في لبنان
سياسة 11/22/2025 12:00:00 AM
نوّه عون بالدور المميّز الذي يقوم به الجيش المنتشر في الجنوب عموماً وفي قطاع جنوب الليطاني خصوصاً، محيّياً ذكرى العسكريين الشهداء الذين سقطوا منذ بدء تنفيذ الخطّة الأمنية والذين بلغ عددهم 12 شهيداً.