ماهي تقنية Deepfake وكيف تعمل على تزييف الحقائق بسهولة تامة؟

0

تشارلي شابلن يقوم بتأدية دور مستر بن، ربما يبدو الأمر مضحكاً وغير قابل للتصديق ولا يتعدى كونه مزحة التقاء كوميديين من زمنين مختلفين أحدهما توفي بالفعل، لكن ماذا لو رأيت مقطع فيديو يثبت ذلك؟  نعم بات ذلك ممكناً في عصر بدأ الذكاء الاصطناعي بالسيطرة عليه حيث أنك قادر الآن على تحقيق ذلك بعد الحصول على مجموعة بيانات من إنتاج الفيديو الذي ترغب به بكل سهولة باستخدام تطبيقات متوفرة في متناول الجميع.

حيث يعد ال Deep Fake أحد تقنيات الذكاء الاصطناعي التي تستخدم التعلم العميق الذي سبق وتحدثنا عنه في مقال سابق، لتتيح لك إجراء التعديلات على الفيديوهات أو حتى صناعة الفيديوهات التي ترغب بها وبالطريقة التي تريدها جاعلاً الشخصيات ضمن الفيديو تتصرف وتتحدث كما ترغب متحكماً بتغيير التفاصيل كيفما تشاء.

حيث باتت هذه التقنية تشكل مصدر رعب للكثير فبعملية تعديل بسيطة أصبح من الممكن تقديم إثباتات ضد شخص ما تبدو وكأنها حقيقية لتعمل على تشويه سمعته أو تخريب عمله، تستطيع التفكير بالسياسيين والحملات الانتخابية على سبيل المثال وكيف من الممكن أن يكون لأحد هذه الفيديوهات أثر مدمر عليهم.

 

ماهي تقنية الـ DeepFake

كما ذكرنا سابقاً نستطيع من خلال هذه التقنية تعديل الفيديوهات بالطريقة التي نرغب حيث يعتمد الزيف العميق على تقنية التعلم العميق في التعديل وذلك من خلال Generative Adversarial Networks أو شبكة GAN والتي تعتمد على نوعين من الشبكات تعمل كل منهما جنباً إلى جنب لتحليل وتصنيف البيانات وإعطاء نتائج مشابهة لتلك الحقيقة المقدمة لها.

تدعى الشبكة الأولى المولد Generator والتي تقوم بتوليد عينة عشوائية من البيانات بالاستناد لمجموعة من الاحتمالات المحددة وذلك وفقاً للبيانات التي نقوم بتقديمها لها لتقوم بتصنيفها وتحليلها وحفظها حيث بعد تعرفها عليها تصبح فيما بعد قادرة على تمييزها.

أما الشبكة الأخرى تدعى بالمميز Discriminator والتي تقوم بتمييز العينات الحقيقة التي تأتي من البيانات المقدمة للشبكة بغرض تدريب خوارزمياتها ومقارنتها مع العينات المنتجة من قبل شبكة المولد.

حيث تقوم شبكة المولد بمحاولة خداع شبكة المميز عن طريق إنتاج بيانات عشوائية أما شبكة المميز تحاول باستمرار الكشف عن زيف البيانات التي تقدمها شبكة المولد، حيث تمكن هذه الآلية تقنية التزييف العميق من تطوير الخوارزميات نفسها بنفسها وإنتاج مخرجات مشابهة وتكاد تكون مطابقة للحقيقية حيث أن مع المزيد من البيانات تصبح مهمة شبكة المميز أكثر صعوبة.

 

المراحل التي يمر بها إنتاج فيديوهات الـ DeepFake

لتوضيح الخطوات دعونا نستعين بالمثال الذي طرحناه في مقدمة المقال، لنفترض بأننا نرغب بوضع ملامح تشابلن على أحد مقاطع مستر بن ليبدو وكأنه هو من يقوم بتمثيل المقطع، بدايتاً سنقوم بتجميع أكبر عدد ممكن من صور تشارلي شابلن ثم نقوم بتزويد شبكة المميز بها لتقوم بالتدرب عليها من خلال تحليلها والاحتفاظ بكامل البيانات المتعلقة بالشخص لتصبح أكثر قدرة على التعرف وتمييز جميع الصور المتعلقة بتشارلي شابلن فيما بعد.

في الخطوة الثانية نقوم بتدريب شبكة المولد والتي تعتبر شبكة عصبية تستخدم لترميز البيانات وذلك من خلال تعلم الخصائص المميزة للصور والتي يتم تزويدها بها حيث تقوم بتحليلها وتحويل الصور إلى بيانات رقمية وقيم منطقية ثم تعمل على تحويل هذه البيانات وإعادة إنتاج الصور من جديد.

بعد ذلك نقوم بإحضار مقطع الفيديو الذي نرغب بتعديله لمستر بن ثم نقوم بتجزئته إلى صور كل لقطة على حدى ضمن صورة ونقوم بتغذية شبكة المولد الذي سبق وأضفنا له صور مستر بن في البداية، ليقوم بعد ذلك بتحليلها وإعادة تشكيل اللقطات المأخوذة من فيلم لمستر بن بواسطة خصائص تشارلي شابلن.

ثم تعمل شبكة المولد على إعادة تشكيل عدد من الصور بالاعتماد على البيانات المقدمة لها سابقاً لكن تبقى في هذه المرحلة الصورة الناتجة عن دمج ملامح مستر بن مع ملامح تشابلن مشوهة وتحتوي على الكثير من الأخطاء وتحتاج للتحسين.

وهنا يأتي دور شبكة المميز التي تقوم بمقارنة خرج المولد مع البيانات الحقيقية واكتشاف الزيف من خلال تصنيف مجموعة الصور الناتجة عن المولد إلى صور مطابقة للحقيقية وصور مزيفة مع مرور الوقت وتزويد الشبكة بالبيانات تصبح أكثر قدرة على إنتاج صور مطابقة للحقيقية ليصبح من الصعب على شبكة المميز التفريق بين الحقيقية والزيف.

أخيراً بعد مرور الصور بالمراحل السابقة نقوم بإعادة تجميع لقطات فيديو مستر بن بعد دمج ملامحه مع ملامح تشارلي شابلن لنقوم بإنتاج فيديو جديد يظهر من خلاله تشارلي تشابلن يقوم بأحد أدوار مستر بن.

 

نتائج مبهرة بدون أدنى جهد

في الوقت الذي كان يتطلب به إعادة إنتاج وتعديل مقاطع الفيديو حاسب ذو عتاد قوي ومهارة بالتعديل والكثير من وقت الفراغ أصبح الآن بمقدورك القيام بهذه الأمور بمنتهى البساطة من خلال أي تطبيق FakeApp بكل سهولة حتى لو لم تمتلك أي خبرة سابقة بالتعديل على المحتوى حيث أن البرنامج سيقوم بكل ما تطلبه منه بعد إدخال البيانات اللازمة.

وكلما قدمت كمية أكبر من البيانات كلما حصلت على نتائج أكثر دقة ومقاربة للحقيقة، الأمر الذي يفسر كون المشاهير والسياسيين هم الأكثر عرضة للتزييف حيث أنك تستطيع بكل سهولة الحصول على كمية ضخمة من البيانات حولهم لتدريب الخوارزميات على أكمل وجه.

 

انتشار ساحق يحققه تطبيق الزيف العميق Zao

تم إنشاء تطبيق Zao بغرض إنشاء وتعديل الفيديوهات حيث تستطيع من خلاله دمج صورك مع أحد المقاطع لأحد مفضليك من المشاهير، ولن يتطلب منك ذلك أي جهد أو مهارة تذكر كل ما سيطلبه منك البرنامج هو الفيديو المراد التعديل عليه ومجموعة مختلفة من صورك حين إغلاق وفتح عينيك وفمك لتحصل على نتائج أكثر دقة.

لكن عليك الحذر في حال كانت خصوصيتك من الأمور الهامة بالنسبة لك على شبكة الإنترنت حيث أن سياسة الخصوصية تتضمن شرطاً بأن جميع البيانات التي يرفعها المستخدم للتطبيق ستكون بمثابة ترخيص مجاني وغير قابل للإلغاء يسمح للمطور باستخدامها كيفما يشاء وللغاية التي يرغب بها.

لكن بعد موجة من الاحتجاجات التي طالت الشركة المطورة للتطبيق تم التراجع عن هذا الشرط والاكتفاء بالتصريح على أن هذه البيانات سيتم استخدامها بغرض تحسين عمل التطبيق فقط بالإضافة إلى أن حذف المستخدم لهذه البيانات تعني حذفها من خوادم التطبيق حسب تصريح الشركة المطورة.

 

مخاوف تثيرها تقنية الزيف العميق

في الحقيقة تفتح هذه التقنية الباب حول العديد من التساؤلات والمخاوف خاصة أنها تقنية رخيصة ومتوفرة بشكل مجاني في متناول الجميع الأمر الذي يجعل الأمر أكثر صعوبة وتعقيداً بالسيطرة عليه خاصة في ظل وجود منصات التواصل الاجتماعي التي تجعل من انتشار مثل هكذا فيديوهات كالنار في الهشيم.

بالرغم من أن التقنية لا زالت تعد جديدة إلا أن خوارزميات التعلم العميق سريعة التعلم وذلك بفضل وجود كميات بيانات ضخمة تستطيع تدريب خوارزمياتها من خلالها ذلك ما يعني بأن السياسيين والمشاهير لن يكونوا وحدهم المستهدفين في هذه التقنية وسيتعدى ذلك إلى المستخدمين العاديين.

حيث سيجلب ذلك معه الكثير من المشاكل والمتاعب التي ستظهر بسبب صعوبة تمييز الفيديوهات الحقيقية عن تلك المزيفة حيث أنه من الممكن أن يتم إنكار بعض التصريحات التي قام بها بعض السياسيين أو الفنانين أو غيرهم بحجة أنها مقاطع مزيفة، أو حصول العكس من ذلك وتزييف مقاطع فيديو للبعض.

تبدو الفكرة مرعبة حقاً حيث أن الفيديوهات لن تعود مصدراً موثوق نستطيع تداوله لإثبات شيء ما فبكل سهولة من الممكن أن ترى نفسك تقول أو تفعل شيء لم تقم به من قبل، وتذكر أنك في كل مرة تقوم فيها بنشر أحد صورك أو صور العائلة على مواقع التواصل الاجتماعي تكون بذلك ساعدت خوارزميات الذكاء الصنعي على تطوير مهاراتها الأمر الذي يتطلب منك مراعاة خصوصيتك بشكل أكبر.

مصدر interestingengineering csoonline
قد يعجبك ايضا

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.

يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. سنفترض أنك موافق على ذلك ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. قبولقراءة المزيد