في عصر يشهد تسارعًا غير مسبوق في تطورات الذكاء الاصطناعي التوليدي، أصبح الخط الفاصل بين الواقع والخيال الرقمي أكثر ضبابية من أي وقت مضى. لم يعد الأمر مقتصرًا على الخيال العلمي، بل أصبح من الممكن رؤية مقاطع فيديو وصوت تبدو حقيقية تمامًا لأشخاص يقولون أو يفعلون أشياء لم تحدث أصلًا. هذه الظاهرة، المعروفة باسم “التزييف العميق” (Deepfake)، لم تعد محصورة على التجارب البحثية أو الترفيهية البسيطة، بل تحولت إلى أداة قوية وخطيرة للتضليل الإعلامي، وابتزاز الأفراد، ونشر الشائعات المغرضة، بل وحتى التأثير في الاستقرار السياسي والاجتماعي للدول.
تاريخيًا، بدأت محاولات التلاعب بالصور والفيديوهات منذ عقود، لكن ظهور تقنيات الذكاء الاصطناعي، وخاصة الشبكات التوليدية التنافسية (GANs) في منتصف العقد الماضي، نقل هذه القدرة إلى مستوى غير مسبوق من الواقعية والسهولة. فبينما كانت التعديلات الرقمية تتطلب مهارات عالية وأدوات معقدة، أصبح بإمكان أي شخص لديه وصول إلى الإنترنت وبعض البرامج المتاحة إنتاج محتوى مزيف عالي الجودة في دقائق معدودة، مما يمثل تحديًا هائلاً لمصداقية المعلومات في الفضاء الرقمي.
وفي هذا السياق، حذر رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، الدكتور محمد محسن رمضان، من أن هذه التقنيات تمثل تهديدًا غير مسبوق لمصداقية الأخبار والمحتوى المرئي والمسموع. وأشار الدكتور رمضان إلى أن أدوات التزييف أصبحت سهلة الاستخدام وعالية الواقعية، مما يعني أن القدرة على إنتاج محتوى مزيف لم تعد حكرًا على المتخصصين، بل أصبحت في متناول الجميع تقريبًا، وهو ما يزيد من خطورة انتشار المعلومات المضللة.
تتجلى أهمية هذا التحدي في تأثيراته المتوقعة على المستويات المحلية والإقليمية والدولية. فعلى الصعيد السياسي، يمكن استخدام التزييف العميق للتأثير على الانتخابات، أو تشويه سمعة المرشحين، أو حتى إثارة الفتن والقلاقل. وعلى الصعيد الأمني، قد يُستخدم لإنشاء أدلة مزيفة أو لشن هجمات إلكترونية معقدة. أما على المستوى الاجتماعي، فيمكن أن يؤدي إلى تآكل الثقة بين الأفراد والمؤسسات، ونشر الكراهية، وتدمير السمعة الشخصية والمهنية للأفراد، مما يهدد النسيج المجتمعي بأكمله.
ولمواجهة هذا التهديد المتزايد، أشار الدكتور رمضان إلى أن أدوات كشف التزييف أصبحت متاحة للجمهور، ومن أبرزها:
- Deepfake Detection: أداة متخصصة تحلل البكسلات الدقيقة وحركة الوجه والصوت للكشف عن أي تناقضات أو علامات تدل على التزييف العميق.
- Copyleaks: تعتمد على قواعد بيانات ضخمة لمقارنة الصور والفيديوهات بالمحتوى الأصلي المعروف، مما يساعد في كشف التزوير والتلاعب.
- Arting AI: تركز على كشف الصور المثالية جدًا أو التي تحتوي على تشوهات دقيقة غير مرئية للعين البشرية، والتي غالبًا ما تكون سمة للمحتوى المزيف الذي ينتجه الذكاء الاصطناعي.
- InVID – WeVerify: أداة قوية تفكك الفيديوهات إلى لقطات ثابتة وتحلل سياقها، وتكشف عن استخدام مقاطع قديمة أو مقتطعة في سياقات مضللة أو غير صحيحة.
من جانبه، ذهب مساعد وزير الداخلية المصري الأسبق، اللواء محمد رجائي، إلى أن هناك علامات أولية يمكن من خلالها للمستخدم العادي اكتشاف التزييف. وتشمل هذه العلامات حركة العين غير الطبيعية أو المتصلبة، والصوت غير المتناسق مع تعابير الوجه أو حركة الشفاه، واختلاف الإضاءة أو الظلال غير الواقعية في المشهد، أو وجود عيوب طفيفة في حواف الأجسام. لكنه شدد على أن هذه العلامات وحدها قد لا تكفي في مواجهة التقنيات الأكثر تطورًا، ويجب الجمع بينها وبين أدوات التحليل المتقدمة لضمان دقة التحقق.
للحماية من الوقوع ضحية للتزييف العميق، ينصح الخبراء بشدة بعدم إعادة نشر أي محتوى صادم أو مثير للجدل قبل التأكد من صحته ومصدره. كما يُنصح باستخدام أكثر من أداة كشف للتحقق المتقاطع، وتفعيل إعدادات الخصوصية على المنصات الرقمية، والأهم من ذلك، الاحتفاظ دائمًا بالنسخ الأصلية للصور والفيديوهات الشخصية. فمع سرعة انتشار المحتوى الرقمي وتزايد تعقيد أدوات التزييف، أصبح التحقق الرقمي والوعي الإعلامي أمرًا لا غنى عنه لتجنب الوقوع ضحية لهذه الظاهرة المتنامية، والحفاظ على سلامة الفضاء الرقمي ومصداقيته.


