التزييف العميق: التحديات والمخاطر في عصر الذكاء الاصطناعي
دور البحوث والتواصل العلمي في التصدي لتقنيات التزييف العميق
شبكة بيئة أبوظبي، د. طارق قابيل (*)، القاهرة، جمهورية مصر العربية، 13 ديسمبر 2024
تخيل أن تشاهد مقطع فيديو لرئيس دولة يقول شيئًا لم يقله قط، أو أن تسمع صوت أحد أحبائك ينطق بكلمات مؤذية. هذا هو واقع التزييف العميق، التقنية التي تستخدم الذكاء الاصطناعي لتزييف الصور ومقاطع الفيديو والتسجيلات الصوتية، وعلى سبيل المثال، فتزامنًا مع دخول المعارضة المسلحة السورية العاصمة دمشق، انتشر تسجيل يدعي ناشروه أنه للرئيس بشار الأسد يعلن فيه التخلي عن منصبه والتراجع عن الاتفاقيات الموقعة مع روسيا وإيران، ويطالب بانسحاب القوات الأجنبية من سوريا. هذا التسجيل الصوتي، الذي تبين لاحقًا أنه مفبرك باستخدام الذكاء الصناعي، أثار جدلاً واسعًا وأكد على خطورة التزييف العميق في تضليل الرأي العام. وبعد سقوط النظام، تم تداول عدد كبير من المقاطع القصيرة والاخبار التي تبين أن معظمها ليس حقيقي بعد ما أجهد مدققي الحقائق على الأنترنت.
وفي عالم يزداد فيه الاعتماد على المعلومات الرقمية، ظهرت تهديدات جديدة تهدد أساسيات الحقيقة والثقة. وفي ظل التطورات التكنولوجية السريعة، أصبح التزييف العميق (Deepfake) أحد أبرز التحديات التي تواجه المجتمعات الحديثة. وأصبحت تقنية التزييف العميق سلاحاً ذو حدين، حيث يمكن استخدامها لإنشاء محتوى واقعي بشكل مخيف، ولكنه مزيف تماماً. ومن خلال استغلال الذكاء الاصطناعي، يمكن للمتلاعبين بسهولة خلق واقع بديل، يهدد ليس فقط الأفراد، بل المجتمعات بأكملها. هذا المقال سوف يغوص في عالم التزييف العميق، ويستكشف طبيعة عمله، وتاريخه، وتطبيقاته، ومخاطره، وتأثيره على حياتنا اليومية، ويستكشف كيف يمكن لنا مواجهة هذا التحدي المتزايد وكيف يمكننا حماية أنفسنا من مخاطره.
ما هو التزييف العميق؟
التزييف العميق هو تقنية تعتمد على الذكاء الصناعي لإنشاء مقاطع فيديو أو تسجيلات صوتية تبدو واقعية تمامًا، لكنها في الحقيقة مزيفة. وتقوم هذه التقنية بدمج الصور ومقاطع الفيديو لشخصية ما من أجل إنتاج مقطع فيديو جديد قد يبدو للوهلة الأولى أنه حقيقي لكنه في واقع الأمر مُزيّف. ويتم ذلك من خلال استخدام خوارزميات التعلم العميق (Deep Learning) والشبكات العصبية التوليدية (Generative Adversarial Networks – GANs) لتوليد محتوى يبدو حقيقيًا ولكنه غير موجود في الواقع.
تاريخ التزييف العميق
ظهرت أولي معالم هذه التقنية في عام 1997، حيث كان يقوم برنامج “فيديو ريرايت” (Video Rewrite) بتحويل فيديو لشخص يتحدث في موضوع معين إلى فيديو لنفس الشخص لكنه يتحدث في موضوع آخر، وينطق بكلمات جديدة لم يقلها في الفيديو الأصلي. وعادة ما يتم استغلال هذه التقنيّة في المجال الأكاديمي في مجال الرؤية الحاسوبيّة الذي يستند إلى الذكاء الاصطناعي، ولكن لم يتوقف استخدام هذه التقنية على المجال الأكاديمي فقط، فيرجع استخدام مصطلح التزييف العميق إلى اسم أحد مستخدمي “ريديت” الذي قام هو وآخرون في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، وحققت تلك الفيديوهات نسب مشاهدات عالية.
بحلول فبراير/شباط من العام التالي (2018)، قام موقع “ريديت” بحظر المُستخدم، كما قامت باقي المواقع بحظر كل من يروج لهذه التقنيّة، ومع ذلك؛ لا تزال هناك منصات أخرى على الإنترنت تعمل على مشاركة الفيديوهات المصنوعة بهذه التقنية بعلم أو بدون علم.
وفي ديسمبر/كانون الأول من نفس العام تحدثت الممثلة سكارليت جوهانسون علنا عن موضوع التزييف العميق خلال مقابلة لها مع واشنطن بوست حيث أعربت عن قلقها إزاء هذه “الظاهرة” ووصفت عالم الإنترنت بأنه “ثقب كبير من الظلام يأكل نفسه”. وفي صناعة السينما، تم استخدام التزييف العميق لإعادة إنشاء وجوه الممثلين المتوفين أو لتغيير ملامح الممثلين في الأفلام. هذا الاستخدام يثير تساؤلات حول حقوق الملكية الفكرية والأخلاقيات.
الاستغلال السياسي
في عام 2020، انتشر مقطع فيديو مزيف للرئيس الأمريكي السابق باراك أوباما، حيث يظهر وهو يقول أشياء لم يقلها في الواقع. هذا الفيديو أثار جدلاً واسعًا حول تأثير التزييف العميق على السياسة. واستُخدمت تقنية التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بدونالد ترامب من قبل.
وفي أبريل/نيسان 2018؛ نشر فيديو للرئيس الأمريكي السابق باراك أوباما وهو يتكلم بصوت عالٍ حول هذه التقنية وشرح مخاطرها، وهو ما لم يفعله الرئيس الأمريكي أصلا. وفي نفس العام أيضا أصدر الحزب الاشتراكي البلجيكي مقطع فيديو مزيف للرئيس ترامب وهو يهين بلجيكا، وكما هو متوقع حصل الفيديو على رد فعل كاف لإظهار المخاطر المحتملة للتزييف العميق عالي الجودة. وفي يناير/كانون الثاني2019، بثت شبكة فوكس التلفزيونية فيديو مصنوع بتقنية التزييف العميق للرئيس ترامب خلال خطابه في المكتب البيضاوي.
ويحذر العديد من المحللين من إمكانية استغلال تقنية “التزييف العميق” في المنافسة السياسية خلال الانتخابات، ويري العديد منهم إمكانية تزييف الفيديوهات والمقاطع الصوتية للمرشحين باستخدام الذكاء الاصطناعي لإظهارهم وهم يقولون أو يفعلون شيئا غير حقيقي يهدد مستقبلهم السياسي ويقلل فرص فوزهم بالانتخابات.
وبالفعل استُعمِلت هذه التقنية الحديثة في إنشاء مقاطع فيديو إباحية مزيفة لعدد من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة، مما أثار حفيظة المشرِّعين الأمريكيين، وعقدت جلسة استماع في لجنة الاستخبارات بمجلس النواب الأمريكي حول هذه التقنية التي تم إدراجها ضمن أعلى 8 تهديدات مضللة لحملة انتخابات 2020 في تقرير نشرته جامعة نيويورك.
التزييف العميق والبحث العلمي
كما سبق أن وضحنا، فالتزييف العميق هو تقنية تعتمد على الذكاء الصناعي لإنشاء مقاطع فيديو أو تسجيلات صوتية تبدو واقعية تمامًا، لكنها في الحقيقة مزيفة. يتم ذلك باستخدام خوارزميات التعلم العميق والشبكات العصبية التوليدية لإنشاء محتوى يمكن أن يكون مقنعًا جدًا للمشاهدين.
ومع التقدم التكنولوجي الهائل في العقود الأخيرة، ظهرت تقنيات جديدة غيرت الطريقة التي نتفاعل بها مع المعلومات والمحتوى الرقمي. من بين هذه التقنيات، يبرز التزييف العميق والتزييف العلمي كواحدة من التحديات الكبيرة التي تواجه المجتمعات الحديثة. هذه التقنيات، على الرغم من إمكانياتها الإيجابية، تحمل في طياتها مخاطر جمة تتطلب الوعي واليقظة. وفي عصر التكنولوجيا المتقدمة، أظهرت تقنيات التزييف العميق قدرة هائلة على إنشاء محتوى يبدو واقعيًا ولكنه في الحقيقة مزيف. هذه التقنيات لم تؤثر فقط على وسائل الإعلام والترفيه، بل وصلت تأثيراتها إلى البحث العلمي، مما يثير تساؤلات جدية حول المصداقية والنزاهة.
يعتمد التزييف العميق على خوارزميات التعلم العميق والشبكات العصبية لإنشاء مقاطع فيديو وتسجيلات صوتية مزيفة. في البحث العلمي، يمكن استخدام هذه التقنيات بطرق متعددة، بعضها إيجابي والبعض الآخر يشكل خطرًا كبيرًا.
التطبيقات الإيجابية
1. التعليم والتدريب: يمكن استخدام التزييف العميق لإنشاء مواد تعليمية تفاعلية، مثل محاكاة تجارب علمية معقدة لا يمكن تنفيذها بسهولة في المختبرات التقليدية.
2. تحليل البيانات: يمكن أن تساعد هذه التقنيات في تحليل البيانات الكبيرة من خلال إنشاء نماذج محاكاة تساعد الباحثين على فهم الأنماط المعقدة في البيانات.
المخاطر والتحديات
1. تزييف النتائج العلمية: يمكن استخدام التزييف العميق لنشر نتائج علمية مزيفة، مما يمكن أن يضلل المجتمع العلمي ويؤدي إلى مسارات بحثية غير صحيحة.
2. المصداقية والنزاهة: انتشار التزييف العميق يمكن أن يقلل من ثقة الجمهور في البحث العلمي والعلماء، مما يؤثر على الدعم العام للأبحاث العلمية.
3. السرقة الأدبية: يمكن استخدام التزييف العميق لسرقة الأفكار والأبحاث العلمية من خلال إنشاء محتوى مزيف ينسب للآخرين.
كيفية اكتشاف التزييف العميق
لكشف التزييف العميق بشكل ممنهج يجب العمل على ما يلي:
1. التحقق من المصادر: يجب دائمًا التحقق من مصدر الفيديو أو التسجيل الصوتي. إذا كان المصدر غير موثوق، فقد يكون المحتوى مزيفًا.
2. البحث عن الأخطاء: غالبًا ما تحتوي مقاطع التزييف العميق على أخطاء صغيرة في الحركة أو الصوت يمكن اكتشافها عند التدقيق.
3. استخدام الأدوات التقنية: هناك أدوات وبرامج متخصصة يمكنها تحليل الفيديوهات والتسجيلات الصوتية لاكتشاف التزييف العميق.
التصدي للتزييف العميق
من الناحية المثالية، يجب أن تكون أداة التحقق من التزييف العميق متاحة للجميع. ومع ذلك، فإن هذه التكنولوجيا في المراحل الأولى من التطوير. يحتاج الباحثون إلى تحسين الأدوات وحمايتها من المتسللين قبل إطلاقها على نطاق واسع. في الوقت نفسه، فإن أدوات التزييف العميق متاحة لأي شخص يريد خداع الجمهور. الجلوس على الخطوط الجانبية ليس خيارًا. ويجب العمل مع الصحفيين، لأنهم يمثلون خط الدفاع الأول ضد انتشار المعلومات المضللة. لكن، قبل نشر القصص، يحتاج الصحفيون إلى التحقق من المعلومات. لديهم بالفعل طرق مجربة وحقيقية، مثل التحقق من المصادر والحصول على أكثر من شخص للتحقق من الحقائق الأساسية. لذلك من خلال وضع الأداة في أيديهم، نقدم لهم المزيد من المعلومات، ونعلم أنهم لن يعتمدوا على التكنولوجيا وحدها، نظرًا لإمكانية ارتكابها أخطاء. ومع ذلك فيمكن التصدي للتزييف العميق عن طريق ما يلي:
1. التوعية والتثقيف: نشر الوعي حول مخاطر التزييف العميق في البحث العلمي وكيفية اكتشافه.
2. التشريعات والقوانين: وضع قوانين وتشريعات تجرم استخدام التزييف العميق لأغراض ضارة في البحث العلمي.
3. التكنولوجيا المضادة: تطوير تقنيات مضادة يمكنها اكتشاف المحتوى المزيف بسرعة وفعالية.
دور العلماء والمؤسسات البحثية
1. النزاهة والشفافية: يجب على العلماء والمؤسسات البحثية الحفاظ على النزاهة والشفافية في جميع مراحل البحث العلمي.
2. المراجعة الدقيقة: يجب على المجلات العلمية والمراجعين تدقيق الأبحاث بدقة للتأكد من صحتها ومصداقيتها.
3. التعاون الدولي: يجب أن يكون هناك تعاون دولي لمكافحة التزييف العميق في البحث العلمي، من خلال تبادل المعرفة والخبرات بين الدول والمؤسسات.
التزييف العميق والتواصل العلمي: تحديات وفرص
التواصل العلمي هو عملية تبادل المعلومات والنتائج العلمية بين العلماء والجمهور. ويهدف إلى تعزيز الفهم العام للعلم وزيادة الوعي بأهمية الأبحاث العلمية. ومع التقدم التكنولوجي الهائل الذي نشهده اليوم، أصبح التزييف العميق (Deepfake) واحدًا من أبرز التقنيات التي تؤثر على جميع جوانب حياتنا، بما في ذلك التواصل العلمي. هذه التقنية تعتمد على الذكاء الصناعي لإنشاء مقاطع فيديو وتسجيلات صوتية تبدو حقيقية تمامًا، ولكنها في الواقع مزيفة. يمكن أن يكون للتزييف العميق تأثيرات كبيرة على كيفية تبادل المعلومات العلمية وتواصل العلماء مع الجمهور.
التطبيقات الإيجابية
1. التعليم والتدريب: يمكن استخدام التزييف العميق لإنشاء مواد تعليمية تفاعلية، مثل محاكاة تجارب علمية معقدة أو تقديم محاضرات افتراضية لشخصيات تاريخية علمية.
2. نشر الأبحاث: يمكن تحسين نشر الأبحاث من خلال استخدام التزييف العميق لإنشاء عروض تقديمية تفاعلية تسهل فهم النتائج العلمية.
المخاطر والتحديات
1. تضليل المعلومات: يمكن أن يؤدي استخدام التزييف العميق في نشر معلومات علمية مزيفة إلى تضليل الباحثين والجمهور.
2. الثقة في العلم: انتشار المحتوى المزيف يمكن أن يقلل من ثقة الجمهور في المعلومات العلمية والعلماء.
3. الأمن العلمي: يمكن استخدام التزييف العميق لسرقة الأفكار والأبحاث العلمية أو تزييفها لأغراض ضارة.
سباق التسلح لمكافحة التزييف العميق
تلعب شركات التكنولوجيا الكبرى دورًا حاسمًا في مكافحة التزييف العميق. من خلال تطوير أدوات وتقنيات للكشف عن المحتوى المزيف، يمكن للشركات مساعدة الحكومات والمؤسسات في الحفاظ على النزاهة والأمان. ومن المشجع أن نرى فرقًا من “فيسبوك” و”مايكروسوفت” تستثمر في التكنولوجيا لفهم التزييف العميق واكتشافه. يحتاج هذا المجال إلى مزيد من البحث لمواكبة سرعة التقدم في تقنية التزييف العميق. يحتاج الصحفيون ومنصات التواصل الاجتماعي أيضًا إلى معرفة أفضل السبل لتحذير الناس من التزييف العميق عند اكتشافهم. أظهرت الأبحاث أن الناس يتذكرون الكذبة، لكن ليس حقيقة أنها كانت كذبة. هل ينطبق الأمر نفسه على مقاطع الفيديو المزيفة؟ قد لا يكون وضع “تزييف عميق” (Deepfake) في العنوان كافيًا لمواجهة بعض أنواع المعلومات المضللة.
1. تطوير تقنيات الكشف: تعمل العديد من الشركات على تطوير تقنيات متقدمة يمكنها اكتشاف التزييف العميق بسرعة وفعالية.
2. التعاون الدولي: يجب أن يكون هناك تعاون دولي لمكافحة التزييف العميق، من خلال تبادل المعرفة والخبرات بين الدول والشركات التقنية.
الوعي المجتمعي
يجب أن يكون الوعي المجتمعي جزءًا أساسيًا من جهود مكافحة التزييف العميق. من خلال التثقيف والتوعية، يمكن للمجتمعات أن تصبح أكثر قدرة على تمييز المحتوى المزيف واتخاذ قرارات مستنيرة.
1. برامج التوعية: يمكن للحكومات والمؤسسات التعليمية تنظيم برامج توعية لتعليم الناس كيفية اكتشاف التزييف العميق.
2. التثقيف الإعلامي: يجب أن يتم تعليم الأفراد كيفية التعامل مع المعلومات التي يراها على الإنترنت وكيفية التحقق من مصادرها.
وفي الختام، يمثل التزييف العميق تحديًا كبيرًا في العصر الرقمي، حيث يمكن استخدامه لتضليل الرأي العام وتهديد الأمن القومي والتشهير بالأفراد. ومن خلال التوعية والتثقيف وتطوير التكنولوجيا المضادة، يمكننا التصدي لهذا التحدي وحماية المجتمعات من مخاطره. ولهذا فيجب أن نكون دائمًا حذرين ونتحقق من صحة المعلومات قبل تصديقها أو نشرها، لضمان عدم الوقوع في فخ التزييف العميق الذي يمثل تهديدًا خطيرًا على الحقيقة والثقة في العصر الرقمي. ومع ذلك، فإنه يمثل أيضًا فرصة لتطوير أدوات جديدة لحماية أنفسنا من التضليل. ويجب أن نكون مستعدين لمواجهة هذه التحديات الجديدة، وأن نعمل معًا لبناء مستقبل رقمي أكثر أمانًا وشفافية.
المصادر:
1. https://www.wikiwand.com/en/Deepfake
2. https://theconversation.com/in-a-battle-of-ai-versus-ai-researchers-are-preparing-for-the-coming-wave-of-deepfake-propaganda-146536
3. روابط الفيديو
من الممكن أن تضع تقنية التزييف العميق بعض الأشخاص في مشاهد أفلام لم يكونوا فيها من قبل مما يجعل مقاطع الفيديو مسلية.
• توم كروز يقوم بدور في فيلم “أيرون مان”.
4. https://youtu.be/iDM69UEyM3w
• يشرح هاني فريد من جامعة كاليفورنيا في بيركلي كيفية صنع تقنية التزييف العميق.
5. https://youtu.be/poSd2CyDpyA
• يصف آرون لوسون طريقة اكتشاف التزييف العميق.
6. https://youtu.be/gsv1OsCEad0
د. طارق قابيل
– أكاديمي، خبير التقنية الحيوية، كاتب ومحرر ومترجم علمي، ومستشار في الصحافة العلمية والتواصل العلمي
– عضو هيئة التدريس بقسم التقنية الحيوية – كلية العلوم – جامعة القاهرة
– الباحث الرئيسي لمشروع خارطة طريق “مستقبل التواصل العلمي في مصر ودوره في الاعلام العلمي”، أكاديمية البحث العلمي والتكنولوجيا، وزارة التعليم العالي والبحث العلمي، مصر.
– مقرر لجنة الآداب والفنون والعلوم الاجتماعية والثقافة العلمية والدراسات الاستراتيجية ومؤشرات العلوم والتكنولوجي، وزميل أكاديمية البحث العلمي والتكنولوجيا، وزارة التعليم العالي – مصر.
– عضو المجموعة الاستشارية العربية للعلوم والتكنولوجيا، التابعة للمكتب الإقليمي للأمم المتحدة للحد من مخاطر الكوارث للدول العربية.
https://orcid.org/0000-0002-2213-8911
http://scholar.cu.edu.eg/tkapiel
tkapiel@sci.cu.edu.eg