DeepFake: تقنية مرعبة تستهدف سمعتك باستخدام الذكاء الاصطناعي!

8 آب 2019 | 16:00

المصدر: "النهار"

تقنية الـ Deep Fake ( أ.ف.ب)

كل تقنيات #الذكاء_الاصطناعي التي ظهرت في السنوات الأخيرة الماضية، لا تثير القلق والخوف بقدر ما تثيره تقنية الـ Deep Fake أو ما يعرف بالتزييف العميق!

هذه التقنية يمكن استخدامها لتركيب مقاطع الصوت والصورة على صور معينة لشخص ما بطريقة دقيقة للغاية وبشكل يعجز المستخدم العادي عن تمييز المقطع الصحيح من المزيف.

وفي حين أن بعض الأساليب التي عرضت بها هذه التقنية كانت للترفيه في البداية، إلا أن حالات استخدامها الأخرى مثيرة للشكوك والمخاوف. تخيّل أن تصحو غداً وتجد فيديو إباحياً لك منتشراً على مواقع التواصل الاجتماعي لا علاقة لك به! Deep fake تجعل كل شيء ممكناً من الصدمة وتدمير السمعة، وصولاً إلى نشر الأخبار الزائفة والمضللة.

بالطبع، هناك استخدامات إيجابية لتقنية deepfake مثل صنع الأصوات الرقمية للأشخاص الذين فقدوا أصواتهم، أو تحديث لقطات من الأفلام بدلاً من إعادة تصويرها، ومع ذلك، فإن احتمال استخدام هذه التقنية بطريقة مؤذية يثير قلقاً كبيراً، خاصة وأن هذه التقنية أصبحت أكثر دقة عما كانت عليه منذ ظهورها في العام 2017.

تتمتع هذه التقنية اليوم بتقدم هائل في جودة الفيديوات التي تقدمها. فقبل أشهر قليلة، وقع ملايين المستخدمين ضحية مقطع فيديو زائف، لمارك زوكربيرغ، مؤسس فايسبوك، وهو فيديو من إنتاج شابين أميركيين بواسطة هذه التقنية، وهو يدلي بتصريح يعترف فيه بنظرية المؤامرة وسيطرة شركته على العالم.

كيفية عمل هذه التقنية!

تقوم هذه التقنية على صنعِ فيديوات زائفة عبر برامج الكمبيوتر من خِلال الذكاء الاصطناعي. يجب أولاً جمع عدد كبير من الصور عن الشخص المستهدف ليتم تعديلها وحجم الوجه بحسب الصور التي تملكها، بعدها تبدأ مرحلة تدريب التطبيق على هذه الصور بجميع تفاصليها (إبتسامة الشخص، كيفية تحريك فمه، علامات الغضب..)، أما المرحلة الأخيرة فهي عملية الدمج حيث يتم الاستعانة فيها بالمعلومات القياسية من أحجام وأشكال التي تم جمعها في المرحلة الأولى، مع استخدام الصور المستخرجه مضافاً اليها بعض الأمور الهندسية، وتجميعها داخل الفيديو ليتم إنتاج مقطع جديد زائف بصعوبة كبيرة في كشفه.

بحسب الدكتور قاسم دنش،المتخصص في تقنيات الذكاء الاصطناعي، فغالباً ما يتم عمل هذه الفيديوات على المشاهير، لانتشار صورهم بكثافة على الإنترنت، إلا أن ذلك لا ينفي استهدافها الأشخاص العاديين أيضاً.

ويضيف دنش "للنهار" أن هذه التقنية خطيرة جداً، كون غالبية الفيديوات المركّبة تستخدم لأهداف إباحية وفضائحية، كما يمكن أن تظهر للآخرين بطريقة البث المباشر أيضاً: "حواسيب اليوم تتمتع بمعالجات سريعة، لذا فإمكانية معالجة الصور أو أي خوارزمية معينة تتم بطريقة سريعة للغاية، وبالتالي فالمشاهد العادي الذي سيظهر له الفيديو، لن يلاحظ الفروقات أو التأخير البسيط في عملية التلاعب بوجه الشخص المستهدف".

ويشير دنش إلى أن هذه التقنية تهدف بشكل أساسي إلى تغيير الوجوه وحتى الأجسام بفيديو متحرك، وهنا يكمن الفرق بينها وبين برنامج الفوتوشوب. "في الفوتوشوب عادة ما يتم تغيير وجوه وأجسام بصورة ثابتة، ولكن تقنية الـ deepfake تهدف لأن تظهر هذا التلاعب بطريقة تعبير حقيقية على صور متحركة أو فيديو".

ليس هذا وحسب، فالخطورة القصوى بهذه التقنية هي أنها لا تتطلّب مهارات فائقة وخبرات عالية، بل باستطاعة أي شخص تركيب الفيديوات ونشرها بلا حسيب أو رقيب.

ووفقاً لدنش، هناك بعض الأدوات التي من شأنها كشف حقيقة الفيديو الزائف كبرنامج deeptrace و deepbustser اللذين يحاولان اللعب على الفروقات بين الصور (الخلفيات، نسبة الضوء..) ومقارنتها بالبيانات الموجودة لديها.

وبالإضافة الى تقنية الـ Deep fake هناك تقنية أخرى تسمى بالـ Deep voice وهي عبارة عن تغذية برامجية تعتمد على الذكاء الاصطناعي أيضاً، تجعل أي شخص يقول عبارات لم يقلها من الأساس! إذاً تخيّلوا الآن حجم الضرر الذي سيلحقه هذا الفيديو!

ما بين التهديد والشرعنة!

تثير هذه التقنية حالياً أزمة على الصعيد العالمي، فعلى مقربة من الانتخابات الأميركية العام المقبل، بدأت الصرخة من انتشار الفيديوات الزائفة على وسائل التواصل الاجتماعي تعلو في مجلس النواب الأميركي. وأعرب آدم شيف رئيس لجنة الاستخبارات بمجلس النواب الأميركي عن تخوفه من التأثير السلبي والتضليل الإعلامي المترتب على انتشار مقاطع مصورة زائفة بتقنية "Deep fake" للمرشحين الرئاسيين بأميركا، ما يشكل خطرًا على مصداقية الحملات الانتخابية لكلّ مرشح.

في المقابل صوّت الديمقراطيون في ولاية نيويورك، الشهر الماضي، على عدد من المشاريع القانونية، لكن أحدها لم يؤخذ به، وهو التلاعب عبر الذكاء الاصطناعي Deepfake والذي ينص على منع "الاستخدام غير المصرح به للنسخة الرقمية في إنشاء مواد جنسية صريحة في عمل سمعي بصري تعبيري".

كما برزت أزمة في واشنطن وهوليوود، ففي السياسة يمكن أن يكون لهذه التقنية نفس تأثير الأخبار الكاذبة، إذ يمكن التلاعب بتصريحات السياسيين لنشر الأخبار المضللة. أما في هوليوود فيدور النقاش أكثر حول قضايا الخصوصية وحرية التعبير. وحتى اللحظة ما من تشريع أو قانون يمنع من استخدامها والحد من انتشارها بطريقة سيئة.

نعم، نحن اليوم بحاجة ماسة إلى التفكير في الجهات الفاعلة السيئة التي ستستخدم هذه التكنولوجيا للتلاعب والأذى والإساءة، ونحتاج إلى النظر في الحقيقة الواضحة بعيداً عن التلاعب والتلفيق. شركات التكنولوجيا الكبرى لديها مجموعة هائلة من المسؤوليات الأخلاقية والسياسية، ومن المهم أن يُطلب منها الالتزام بها، فالالتزام على مستوى المعايير القانونية الأساسية والأخلاقيات التكنولوجية سيقطع شوطًا طويلًا في حل الأضرار المباشرة للتكنولوجيا السيئة.

نقطة ضو تصنعها إليسا مع "النهار" ومعكم

إظهار التعليقات

يلفت موقع النهار الإلكتروني إلى أنّه ليس مسؤولًا عن التعليقات التي ترده ويأمل من القرّاء الكرام الحفاظ على احترام الأصول واللياقات في التعبير.

Digital solutions by WhiteBeard
Digital solutions by WhiteBeard