لقد جلب عصر الثورة التكنولوجية الكثير من الإيجابيات لحياتنا سواء على المستوى الشخصي أو العملي، ولا يمكن لأحد منا أن ينكر جمال الانفتاح على العالم أجمع من خلال التقنيات التكنولوجية. ولكن من المؤسف أنها أيضاً تحمل في طياتها الكثير من السلبيات والمساوئ لنا على شكل تقنيات ضارة، ومن الممكن أن هذه التكنولوجيا ليست ضارة في حد ذاتها! بل الاستخدام الخاطئ جعلها ضارة، ومن أكثر الأمثلة شيوعاً على ذلك تقنية DeepFake، والتي سنتعرف عليها معاً في هذا المقال.

تقنية DeepFake

يعود أول ظهور لتقنية DeepFake إلى ديسمبر 2017، عندما نشر أحد المبرمجين ذوي الخبرة مقطع فيديو مفبركًا على موقع Reddit، وعلق عليه باعتباره عملًا تجريبيًا لتقنية جديدة ناشئة تحت اسم DeepFake. يُشار إلى أن هذه التقنية تمثل برنامجًا يساعد الأشخاص على تثبيت وجوه الأشخاص بسهولة ويسر على أجساد الآخرين لتبدو حقيقية. ولاقت هذه التدوينة رواجاً واسعاً بين مستخدمي الموقع، وخلال شهرين من نشر التدوينة ارتفع عدد أعضاء المجموعة إلى 90 ألف عضو. واستطاعت هذه المجموعة أن تمنح البرنامج النجومية والشهرة في عالم الفيديوهات المفبركة عبر الإنترنت.

حقائق مزيفة عبر تقنية DeepFake

بسبب الإفراط في تزييف الحقائق من خلال تقنية DeepFake وكثرة استخدامها بطريقة غير صحيحة، فقد تسببت في فضائح للآخرين وأضرت بهم. وعليه، فقد عرفت هذه التكنولوجيا كأداة للفضائح الجنسية على نطاق واسع. ومن الجدير بالذكر أن العديد من المواقع الإباحية لجأت إلى حجب هذه التقنية بسبب اعتمادها على تركيب وجوه الأشخاص على أجساد الآخرين، كما تم استخدام هذه التقنية كوسيلة لشن الحرب على المشاهير وغيرهم بشكل عام من خلال فبركة الفضائح الأفلام ومقاطع الفيديو.

كيف تعمل تقنية DeepFake؟

تعتمد تقنية DeepFake على خوارزمية التعلم العميق، والتي من خلالها يتم إجراء تغييرات في وجوه المشاهير واستبدالها بوجوه مشاهير آخرين. تمر مرحلة إعداد الفيديو في هذه التقنية بعدة مراحل وهي:

  • قم بتجميع عدد كبير جدًا من صور الشخصية التي تريد استخدام وجهها في مقاطع الفيديو.
  • يتعرف بدقة على اتجاه وحجم الوجه لضمان نجاح تغيير الوجوه.
  • إمكانية استخدام الرسم البياني لتقنية الحراسة الموجهة والتي يرمز لها بالاختصار HOG، ودورها هو إجراء مقارنات بين البكسلات في كل صورة مع البكسلات الموجودة في الصور المحيطة تمهيداً لرسم منحنى يبدأ من الأقل ظلمة باتجاه أحلك.
  • إجراء التدريب على التشفير التلقائي بعد الانتهاء من استخدام مستخرجات صور الوجه.
  • بالانتقال إلى مرحلة الدمج، يتم استخدام الصورة المستخرجة والمعالجة من جهاز التشفير التلقائي ووضعها مكان الصورة الأصلية.
  • أعد إنشاء الفيديو مرة أخرى بعد استخدام الصورة المعدلة.
  • تتطلب الخوارزمية شرحًا طويلًا ومعقدًا للغاية، ومن الصعب تطبيق خطواتها على أي شخص عادي.

تأثير تقنية DeepFake في المستقبل

إن استخدام هذه التقنية له العديد من الآثار السلبية، منها:

  • زيادة الفوضى والارتباك نتيجة عمليات التزوير المعتمدة على تقنيات الذكاء الاصطناعي.
  • إمكانية تزوير رسائل البريد الإلكتروني والمحادثات النصية بالاعتماد على معالجة اللغة الطبيعية والخوارزميات.
  • فقدان الثقة في كل ما يمكن رؤيته بسبب تزوير الرسائل الصوتية بالاعتماد على خوارزميات الذكاء الاصطناعي.
  • تدمير حياة الكثير من الأشخاص من خلال التسبب لهم بفضائح جنسية دون وجه حق.

شاهد أيضاً..