حرب التضليل

“كذب كل ما تسمعه ونصف ما تراه”

تخيل أنك تشاهد مقاطع فيديو أحدها لأوباما يتحدث فيها عن مؤامراته لتقسيم لدول العربية، أو باللغة العبرية يتحدث عن الطريق البري الجديد بين إسرائيل والسعودية، أو يصور نتينياهو يتحدث تليفونياً لأحد أتباعه بشأن خطة لتنفيذ سلسلة من الاغتيالات السياسية في طهران. أو يظهر أبي نجاد يعقد مؤتمر سري مع حاخامات يهود، أو يظهر جنرال أمريكي في أفغانستان يحرق القرآن.

معظم هذه النوعية من الفيديوهات ترجمتها خاطئة، أو تم إخراجها من سياقها الأصلي، أو تم تشابكها مع مقاطع فيديو آخرى بمهارة يذوب فيها المضمون الأصلي لتأخذ عقول المتلقين لاتجاه آخر. كل ما سبق يوضح الهدف الذي صُنعت الفيديوهات من أجله، وهو تضليل عقول المتلقين وتحريضهم على الكراهية والعنف الموجه.
وتبقى المقاطع التي تبدو حقيقية ومقنعة مؤكدة تورط أشخاص رسميين أو رموز في المؤامرات، إلا أنها في الحقيقة ومع التكنولوجيا الحديثة تم تزييفها باستخدام أدوات متاحة لأشخاص متمرسين لديهم أجهز لابتوب واصل بالإنترنت.

التزييف التكنولوجي المتطور
تعتبر المنتجات دقيقة التزييف والتي يطلق عليها المصطلح العلمي “Deepfakes” نتاجاً للتطور في صورة ذكاء اصطناعي يُعرف علمياً باسم “التعلم العميق – Deep Learning”، حيث توضع مجموعات من الخوارزميات تسمى “الشبكات العصبية – Neural Networks” استنتاج القواعد وتكرار الأنماط عن طريق غربلة مجموعات البيانات الكبيرة. تظهر المنتجات دقيقة التزييف من نوع معين من “التعلم العميق” حيث يتم وضع أزواج من الخوارزميات في مواجهة بعضها البعض فيما يمكن تسميته بـ “الشبكات المتضادة المتوالدة – Generative Adversarial Networks”، حيث تقوم خوارزمية واحدة “Generator”، بإنشاء محتوى على غرار بيانات المصدر (كإنشاء صور اصطناعية لحيوان أو اشخاص من قاعدة بيانات لصور حقيقية لنفس الحيوان أو الشخص ذاته)، بينما تحاول خوارزمية ثانية “Discriminator”، تحديد محتوى اصطناعي (اختر صور الحيوان أو الشخص المزيف). نظراً لأن كل خوارزمية يتم تدريبها باستمرار ضد الآخر، مما يسمح لـ “الشبكات المتضادة المتوالدة” بإنتاج محتوى صوتي ومقاطع فيديو في غاية الواقعية، وللتمكن من خلق مقطع فيديو مزيف بهذه المهارة التكنولوجية يجب وصول هذه النوعية من المزيفين المهرة “Deepfakers” إلى مواد التدريب، أي الصوت ومقاطع الفيديو الأصلية للشخص المُستهدف.

يمكن للمزيفين المهرة والذين لديهم تطبيقات عالية التقنية إنشاء الصوت أو الفيديو المعدل لشخصية تاريخية بغرض تعليم الأطفال، وكذا أمور أخرى مفيدة للمجتمع. اما الخطر الحقيقي فيكمن فيمن يستطيعون وضع أشخاص مسؤولين أو رموز قومية أو دينية في أفلام إباحية مثلاً دون معرفتهم، وكذا يمكن إستخدام نبرات صوتهم في قول ما لم ينطقوه.

الفقرة السابقة تتضمن محتوى علمي منقول عن دراسة محظورة للناتو، شاركت في أحد أبحاثه، وتتداوله أحياناً بعض مراكز الدراسات الإستراتيجية في نطاق محدود.

http://https://www.youtube.com/watch?v=jI6H-0YWkSc

هناك من يستعزب دمج الحقيقة والخيال، والذي يكون البيئة التي يبرع فيها المضللون المهرة “Deepfakers”، خاصة خلال مواقع التواصل الاجتماعي، ولا يحاول المتلقين مراجعة المضمون أو تدقيقه، بل يقوموا بتداول تلك المقاطع المزيفة بسرعة، وكذا تقوم المواقع الإخبارية التي لا تتحرى الدقة، وبما يؤدي لزيادة الإنقسام العنف والتخبط والتيه في مواضع أبعد ما يكون عن الحقيقة، وقد يتعجب البعض عندما يعلم أن جهات روسية بعينها هي من يقوم بهذا التزييف الماهر.

بالتأكيد لا أبرئ أي شخص مسؤول كان أو رمز أو حتى شخص عادي من تهم منسوبة إليه، ولكني أدعو لتحري الحقيقة، فمحاربة الظالم لا تكون أبداً بالظلم والإفتراء بل بالعلم والمعرفة، وإلا سيزداد عالمنا ظلماً وضلالاً وإفتراءً.

ســــيد غنــــيم
زميل أكاديمية ناصر العسكرية العليا
إستشاري الأمن الدولي
Chairman, IGSDA