في ظل التطور غير العادي في مجال تقنيات الذكاء الاصطناعي والحاسب الآلي، أعلن موقع “علم الأنساب-My heritage على شبكة الأنترنت إتاحة أداة جديدة تُستخدم في تحريك وجوه الأشخاص سواء الأحياء أو المتوفين. وعلى الرغم من عدم إتاحة التقنية في البداية إمكان تحدث الأفراد، إلا أنه أضيف إليها لاحقاً إمكانية تكلم وتحدث هذه الوجوه، ما يعني المزج بين الوجه والصوت. وقد عُرفت هذه الأداة باسم “التزييف العميق- Deep Fake“.

كيف تعمل تقنية “التزييف العميق”؟

بدأ مصطلح “التزييف العميق” في الظهور خلال عام 2017 في إحدى الحسابات المتعلقة بالموقع الأمريكي الشهير “Reddit“. وقد أظهر ذلك الحساب آنذاك أوجهاً لممثلين من هوليوود تم تركيبها على فيديوهات غير حقيقية. ولاحقاً، تم تطوير البرنامج بشكل أكبر لتصبح الفيديوهات من الصعب للغاية أو حتى من المستحيل كشفها زيفها.

وتعتمد هذه التقنية على صنع فيديوهات مزيفة باستخدام برامج الكمبيوتر ودمج صور ومقاطع فيديو لأحد الأفراد لينتج في النهاية مقطع فيديو جديد باستخدام تقنية “التعلم الآلي”، حيث تُدمج مجموعة صور وفيديوهات خاصة بشخص ما، في هذه الحالة هو المستهدَف، تشمل هذه الصور حركات وجهه من فرح وغضب وسكون أو تحدث.

وتوظف هذه التقنية جميع هذه الصور والحركات وتقوم بإسقاط وجه الفرد المستهدف على أي شخص آخر يقوم بالفعل المراد نسجه في الفيديو، وهنا تعمل تقنية “التزييف العميق” على محاكاة وجه الشخصية المستهدفة في الفيديو ليظهر وكأنه هو الذي يقوم بهذا الأمر.

وفي العادة، تكون هذه الوجوه لأشخاص أقرباء أو مشهورين أو غيرهم، وحسبما أعلن “علم الأنساب” فإنه لم يُتَح لهؤلاء الأفراد المتوفين أن يتحدثوا عبر هذه التقنية، إلا أنه لم يكن من الصعب إضافتها إلى هذه التقنية المتطورة. وأوضح الموقع أن الميزة لم تشتمل على إضافة الكلام لتجنب خلق “أشخاص مزيفين”، حيث أكد “ماي هريتج” أنه تعمد عدم تضمين الكلام في هذه الخاصية لمنع إساءة استخدام هذا التطبيق في إنشاء مقاطع فيديو مزيفة لأفراد أحياء وأن هذه التكنولوجيا الجديدة خصصت للنوستالجيا العميقة (Deep Nostalgia)، بمعنى إعادة الأجداد المحبيين إلى الحياة. ويستخدم التطبيق تقنية “التعلم العميق” التي تُعد فرعاً من فروع التعلم الآلي الذي يطبق محاكاة الشبكة العصبية على مجموعات البيانات الضخمة لإنشاء شيء وهمي باستخدام آلية الذكاء الاصطناعي.

ويُمكّن تطبيق “Deep Fake” مستخدميه من تحريك الوجوه في صور المتوفين كي يشعر الأفراد بنوع من الحنين إلى الماضي التي في الغالب ما تؤثر على مشاعر المستخدم لاستحضارها أجداداً أو أقرباء له توفوا منذ زمن بعيد. وقد طورت شركة “دي-آي-دي” الإسرائيلية تقنية استخدام النوستالجيا في وقت لاحق.

وقام موقع “ماي هريتج” مؤخراً بتطوير هذه التقنية الحديثة، التزييف العميق، وتطويرها بالفعل واستخدمها في استعادة أفراد مثل الملكة السابقة لبريطانيا العظمى وأيرلندا الملكة فيكتوريا (1819-1901)، ورائدة التمريض الشهيرة فلورنس نايتجل (1820-1910). واحتفل الموقع آيضاً في شهر فبراير 2021 بعيد الرئيس الأمريكي الأسبق إبراهام لينكولن (1809-1865) ووضع مقطع فيديو له على موقع يوتيوب الشهير وهو يتحدث.

أما النجم الأمريكي توم كروز، فقد نالت مقاطع الفيديو التي أعدت له باستخدام تقنية التزييف العميق ملايين المشاهدات على منصة “تيك توك” حتى أوائل شهر مارس الجاري. حيث أظهرت هذه الفيديوهات النجم الأمريكي وهو يقوم بخدع سحرية مفبركة بالطبع ولا يمكن كشف زيفها.(*)

كيف قرأ السياسيون الأمريكيون تقنية “التزييف العميق”؟

ويبدو الفيديو في الوهلة الأولى حقيقياً، لكنه في الواقع ليس كذلك. وقد استخدمت هذه التقنية “المرعبة” في تزييف حقائق تتعلق بأفراد أو سياسيين. وعلى سبيل المثال، كان فيديو قد ظهر في شهر مايو2018 على شبكة الأنترنت أظهر الرئيس الأمريكي السابق، دونالد ترامب، وهو يتحدث ويقدم نصائح للشعب البلجيكي حول قضية المناخ. ولكن الفيديو بالطبع لم يكن حقيقياً، بل مزيفاً أنشأه حزبٌ سياسي بلجيكي آنذاك ونُشر على “تويتر” و”فيسبوك”.(*)

 واستُخدمت هذه التقنية قبل ذلك بكثير في تزييف فيديوهات للرئيس الأمريكي الأسبق “باراك أوباما” وكذلك للرئيس التنفيذي لعملاق التواصل الاجتماعي فيسبوك “مارك زوكربيرج”. وكان طالب الدراسات العليا “لان جودفيلو” قد اخترع الأساس الذي تعتمد عليه تقنية التزييف العميق وهي “شبكة الخصومة التوليدية- GAN” عام 2014.

وتحدث المشرعون الأمريكيون بالفعل بشأن طبيعة استخدام هذه التقنيات ضد السياسيين في وقت مبكر عام 2019 وذلك في جلسة عُقدت في لجنة الاستخبارات التابعة لمجلس النواب الأمريكي، وتم تصنيف هذه التقنية آنذاك ضمن أعلى 8 تهديدات مضللة لانتخابات العام الفائت 2020.

هل تم ابتكار تقنيات مضادة؟

وصف الخبراء مثل الاستاذ في جامعة ولاية كاليفورنيا الأمريكية “هاني فريد” هذه التقنيات والأعمال بأنها معدة بإتقان بطريقة “لا تُصدّق”. وشاركت “راشيل توباك”، الرئيسة التنفيذية لشركة “سوشيال بروف- SocialProof” للأمن السيبراني ومقرها في مدينة ديترويت بولاية ميتشجان الأمريكية، فريد نفس الرأي قائلة إن الفيديوهات أثببت وصول الأمر إلى مرحلة من “التزييف العميق الذي لا يمكن اكتشافه” تقريباً.

وأضافت توباك أن تكنولوجيا التزييف العميق سوف تمنح “غطاءً معقولاً للمجرمين أو المسيئين… كما أنه سيتم استخدامها للتلاعب بالآخرين وإذلالهم وإيذائهمأو حتى ابتزازهم. وطالبت الرئيسة التنفيذية الشركات بابتكار تقنيات مضادة تكشف عن هذه الفيديوهات المزيفة. وعلى الرغم من قيام جهات عدة، مثل شركة Deeptrace، بمحاولات للتوصل إلى تقنيات تكشف زيف هذه الفيديوهات، إلا أن أياً منها لم يستطع تحقيق هذا الهدف حتى الآن. وما يجعلها التقنية الأخطر على الإطلاق حتى الآن هو تقرير نشرته مجلة “سايبر سيكيورتي” بالولايات المتحدة قالت فيه إن القيام بـ”التزييف العميق” يُعد أسهل من استخدام برامج الفوتوشوب في تعديلات الصور، مشيراً إلى أن السبب في ذلك يعود لاعتماد الـ”Deep Fake” على تقنية التعلم الآلي وليس مهارات التصميم اليدوي، كما أنه متاح في أيدي الأشخاص العاديين، إضافة، كما سبق الإشارة، إلى عدم القدرة على اكتشاف زيف فيديوهات التزييف العميق.

Scroll Up