الخميس - 16 أيار 2024

إعلان

الإعلان عن معهد سلامة الذكاء الاصطناعيّ من بين مبادرات أخرى ضمن قمّة المملكة المتّحدة

المصدر: "النهار"
 نائبة الرئيس الأميركيّ كامالا هاريس
نائبة الرئيس الأميركيّ كامالا هاريس
A+ A-
بعد أيام قليلة من كشف الرئيس الأميركي جو بايدن عن أمر تنفيذي شامل يعيد مهام الحكومة الفيدرالية في ما يتعلق بتطوير الذكاء الاصطناعي، أعلنت نائبة الرئيس كامالا هاريس في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة عن مبادرات عدّة أخرى في مجال التعلم الآلي تقوم بها الإدارة.
 
ومن بين النقاط البارزة التي لفتت إليها: إنشاء معهد سلامة الذكاء الاصطناعي في الولايات المتحدة، والإصدار الأول لمسوّدة سياسة استخدام الحكومة الفيدرالية للذكاء الاصطناعي، وإعلان حول التطبيقات العسكرية المسؤولة للتكنولوجيا الناشئة.


وأضافت: "نعتقد أنا والرئيس بايدن أن جميع القادة، من الحكومة والمجتمع المدني والقطاع الخاص، لديهم واجب أخلاقي ومجتمعي للتأكد من اعتماد الذكاء الاصطناعي وتطويره بطريقة تحمي الجمهور من الضرر المحتمل وتضمن ذلك".
 
وتابعت هاريس في تصريحاتها: "الجميع قادر على الاستمتاع بفوائده"، مشيرةً إلى أنه "مثلما يتمتع الذكاء الاصطناعي بالقدرة على تحقيق خير عميق، فإنه لديه أيضًا القدرة على التسبب في ضرر عميق، بدءاً من الهجمات الإلكترونية التي يدعمها الذكاء الاصطناعي على نطاق يتجاوز أيّ شيء رأيناه من قبل، إلى الأسلحة البيولوجية المصاغة بواسطة الذكاء الاصطناعي والتي يمكن أن تعرّض حياة الملايين للخطر".
 
وأفادت أنّ التهديدات الوجودية التي تمثلها أنظمة الذكاء الاصطناعي التوليدية كانت موضوعاً رئيسياً للقمة.


وذكرت: "لتحديد سلامة الذكاء الاصطناعي، يجب علينا أن نأخذ في الاعتبار ونعالج النطاق الكامل لمخاطر الذكاء الاصطناعي، التهديدات للإنسانية ككل، والتهديدات للأفراد ومجتمعاتنا ومؤسساتنا، والتهديدات التي تواجه الفئات السكانية الأكثر ضعفاً لدينا". مضيقةً "للتأكد من أن الذكاء الاصطناعي آمن، يجب علينا إدارة كل هذه المخاطر."


ولتحقيق هذه الغاية، أعلنت هاريس أن البيت الأبيض، بالتعاون مع وزارة التجارة، يقوم بإنشاء معهد الولايات المتحدة لسلامة الذكاء الاصطناعي. وسيكون مسؤولاً عن إنشاء ونشر جميع الإرشادات والاختبارات المعيارية وأفضل الممارسات وما إلى ذلك لاختبار وتقييم أنظمة الذكاء الاصطناعي التي يحتمل أن تكون خطرة.
 

كما أعلنت هاريس خلال تصريحاتها أن الإعلان السياسي بشأن الاستخدام المسؤول للذكاء الاصطناعي والحكم الذاتي الذي أصدرته الولايات المتحدة في شباط قد جمع 30 موقعاً حتى الآن، وجميعهم وافقوا على مجموعة من المعايير للتطوير المسؤول ونشر أنظمة الذكاء الاصطناعي العسكرية.
 
وأكدت هاريس أن "إحدى الطرق المهمة لمواجهة هذه التحديات، بالإضافة إلى العمل الذي قمنا به بالفعل، هي من خلال التشريع، التشريع الذي يعزز سلامة الذكاء الاصطناعي دون خنق الابتكار".
الكلمات الدالة

حمل الآن تطبيق النهار الجديد

للإطلاع على أخر الأخبار والأحداث اليومية في لبنان والعالم