خلال السنوات الماضية زعزعت الفضائح التكنولوجية والسياسية ثقة المستخدم بالعالم الافتراضي، فقد أدرك عندها المستخدمون أن الشركات الرقمية تجمع بياناتهم الشخصية وتراقب محادثتهم وتحركاتهم لأغراض تجارية وسياسية، ما زاد الشكوك والمخاوف تجاه هذه الأدوات التي تزداد تطورًا وخطورةً على خصوصيتهم.
ففي كل حادثة، كان العالم يظن أن الأسوأ قد حدث بالفعل ولم تعد الشركات التكنولوجية تملك أقنعة أو أساليب خفية أخرى تستغل بها سذاجة وفضول المستخدم، لكن التسريبات والتحليلات تكشف دومًا الإمكانات الهائلة للذكاء الاصطناعي التي بوسعها قلب الحقيقة رأسًا على عقب، بكل ما تحمله الكلمة من معنى.
انهيار الحقيقة.. لا تصدق ما تراه عيناك أو ما تسمعه أذناك
فيديو مزيف للرئيس الأمريكي السابق باراك أوباما
في خريف 2017 نشر مستخدم باسم “DeepFakes” عدة فيديوهات مفبركة وذات محتوي إباحي على موقع “Reddit”، صورت المقاطع المنشورة مجموعة من مشاهير هوليوود بأوضاعٍ خادشة للحياء العام، الجانب المثير للدهشة في هذه القصة أن المشاهدين أكدوا أنهم لم يستطعيوا التمييز ما إذا كان المحتوى المرئي مزيفًا أم حقيقيًا.
والسؤال هنا: كيف تتم فبركة الفيديوهات؟ يجيبنا عن ذلك خبراء البرمجة الذين قالوا إن المستخدم استعان بأدوات التعلم الآلي التي تعرف باسم “تينسور فلو” والخاصة بالذكاء الاصطناعي، حيث يعمل البرنامج وفق 3 خطوات وهي المحاكاة والتدريب والدمج، إذ يدرب نفسه على التعرف على الصورة من خلال جمع آلاف الصور متعددة الزوايا، ومن خلال هذه الآلية يتعلم البرنامج كيف يحاكي تعابير الوجه حتى تكون نتائج التركيب والدمج أقرب للحقيقة.
البرنامج يحتاج إلى عدد كبير من العينات والبيانات المرئية حتى يصنع نموذجًا قابلًا للتصديق، وامتلاك المشاهير والشخصيات الإعلامية رصيد ضخم من الصور والفيديوهات على الشبكة العنكبوتية يجعلهم فريسة سهلة
تفسر هذه التقنية سبب تركيز المفبركين على المشاهير في تزييف الفيديوهات، فالبرنامج يحتاج إلى عدد كبير من العينات والبيانات المرئية حتى يصنع نموذجًا قابلًا للتصديق، وامتلاك المشاهير والشخصيات الإعلامية رصيد ضخم من الصور والفيديوهات على الشبكة العنكبوتية يجعلهم فريسة سهلة، وذلك على العكس من الأشخاص العشوائيين الذين يملكون عددًا محدودًا من الصور.
عادةً ما تستخدم هذه التقنية لأهداف استفزازية أو ابتزازية، وفي أحيان أخرى قد تكون لإثارة السخرية أو تشويه صورة شخصية مشهورة، حيث طالت هذه الألاعيب شخصيات سياسية مثل الرئيس الأرجنتيني ماوريسيو ماكري الذي استُبدل وجهه بوجه أدولف هتلر، ووجه المستشارة الألمانية أنجيلا ميركل بدونالد ترامب.
في يناير/كانون الثاني 2018، أُطلق تطبيق باسم “FakeApp” يسمح للمستخدمين بلصق الوجوه وتركيبها على الجسد الذي يختارونه، كما يمكنهم تزييف تعبيرات الوجه وتغيير إيماءاته لزيادة المصداقية أو درجة التزييف بمعنى أدق، ما دعا مواقع الشبكة الاجتماعية مثل تويتر وريديت بحظر هذه المنشورات على منصاتها، تخوفًا من انتشار الأخبار الوهمية بصورة أوسع من قبل.
في الجهة الأخرى قال كاتلين غرايغوراس مدير المركز الوطني للأدلة الجنائية: “لا يزال من السهل على الخبراء اكتشاف اللقطات المعدلة من خلال تعقب أصوات الضجيج والضوضاء، لكن لا شك أن البرامج الجديدة ستعمل على معالجة هذه الأصوات”، مشيرًا إلى قدرتها أيضًا على إلصاق ألفاظ وكلمات جديدة لم تقل في الواقع.
أعلنت شركة “Adobe” أنها تعمل على مشروع باسم VOCO وهو برنامج يعمل على تحويل النصوص إلى صوت يطابق صوت الشخص المستهدف، ومن خلال تعديل الكلمات المحكية أو حذف بعض المقاطع، يجعل البرنامج الشخص يقول ما لا يقوله في الواقع
ومن المرجح أن تزيد درجة تعقيد الفبركة إلى هذا الحد، فمنذ عامين أعلنت شركة “Adobe” صاحبة برنامج تعديل الصورة أنها تعمل على مشروع تكنولوجي باسم VOCO وهو برنامج يعمل على تحويل النصوص إلى صوت يطابق صوت الشخص المستهدف أو المسجل، ومن خلال تعديل الكلمات المحكية أو حذف بعض المقاطع، يجعل البرنامج الشخص يقول ما لا يقوله في الواقع.
حيث يعتمد هذا البرنامج على تقنية التعلم الذاتي من خلال إدخال مقطع صوتي لا يقل عن 20 دقيقة ليتعرف البرنامج بدوره على التركيبة النغمية والطبقة الصوتية التي يتكلم بها الشخص، ومن ثم يحللها البرنامج وينسخها إلى أن يصنع نسخة مطورة عن صوت الشخص لاستخدامه لاحقًا في قراءة النصوص المفبركة، ورغم هذه القفزات النوعية في عالم التكنولوجيا، فإن هذه التقنيات تهدد الجانب الأخلاقي والاجتماعي بشكل مباشر، فإذا استخدمت القدرات الرقمية في محتوى واحد يصبح من الصعب تصديق ما تراه العين وما تسمعه الأذن.
كيف ستتلاعب هذه الخدع الرقمية بماضينا وحاضرنا؟
المشاهير أكثر الأشخاص استهدافًا
في عام 2016 نشر موقع “AWD NEWS” خبرًا وهميًا بعنوان “وزير الدفاع الإسرائيلي: إذا أرسلت باكستان قوات بحرية إلى سوريا بأي ذريعة، فسنمحوها من الوجود بهجوم نووي”، ما دفع خواجة محمد آصف وزير الدفاع الباكستاني إلى الرد على هذا التهديد في تغريدة على حسابه الشخصي بموقع “تويتر” قائلًا: “يبدو أن “إسرائيل” نسيت أن باكستان دولة نووية أيضًا”، دون أن يعي الطرف الأخير أن هذا الخبر عارٍ عن الصحة.
أثارت هذه الحادثة ضجة إعلامية واسعة بين رواد مواقع التواصل الاجتماعي، وبدأت التساؤلات تكثر عن دور هذه المنصات في الترويج للقصص المصطنعة وتأثيرها على توجهات الشعوب والحكومات، وتحديدًا فيما يخص المواضيع السياسية التي من الممكن أن تفتعل أزمات دبلوماسية بين الدول دون سبب حقيقي.
ولا ريب أن هذه الهواجس تزداد جدية في الوقت الذي أصبحت فيه المواقع الافتراضية ساحة للمنشورات المزيفة والمزورة، ما سيثقل المسؤولية على العاملين في عالم الإعلام لإثبات الدقة والشفافية والمصداقية في تداول الأخبار، كما سيدفع المستخدم إلى التفكير بجدية في تصرفاته على الإنترنت حتى لا يكون شريكًا في الجرائم الرقمية إن صح التعبير.
التلاعب في الصور له تاريخ طويل بين السياسيين والمشاهير والمصورين والصحافيين، لكنه ازداد في الآونة الأخيرة بسبب تطور الأدوات الرقمية وبراعتها في تزييف الصورة الأصلية
جدير بالإشارة إلى أن التلاعب في الصور له تاريخ طويل بين السياسيين والمشاهير والمصورين والصحافيين، لكنه ازداد في الآونة الأخيرة بسبب تطور الأدوات الرقمية وبراعتها في تزييف الصورة الأصلية، إذ يقول هاني فريد أستاذ العلوم الحاسوبية بكلية دارتموث في الولايات المتحدة: “فقد التصوير براءته منذ بدايته.. فإذا نظرنا للخلف سنجد أن هتلر وستالين وكاسترو حاولوا التلاعب وتغيير التاريخ من خلال الصور، فقد فهم ستالين وغيره من الديكتاتوريين قوة الصورة وتأثيرها، لذلك كانوا يتخلصون من أعدائهم السياسيين عند اتخاذ صور رسمية”.
هذا التصريح يأخذنا إلى زاوية جديدة من النقاش، حيث يرى علماء النفس أن هذه التقنية ليست قادرة فقط على التلاعب بالصورة الواقعية الحاليّة أو المستقبلية، وإنما يمكنها أيضًا تشويه الماضي وزرع ذكريات زائفة في عقول الناس، ما يعني أنها تستطيع تغير الطريقة التي نتذكر بها التاريخ وليس فقط الحقائق والوقائع التي نعاصرها.
المثير للقلق في هذا الجانب أن الجهات المسؤولة عن انتشار هذا الفيروس الرقمي ستكون قادرة على تحريضنا سياسيًا تجاه الأحداث العالمية، وبمعنى آخر ستخلق لدينا تحيزات سياسية جديدة مبنية على ذكريات خادعة وكاذبة، ومن السهل تطبيق هذه الألاعيب خاصة أن أدمغتنا تميل إلى تذكر أسهل المعلومات المتوافرة.
هذه التقنية ليست قادرة فقط على التلاعب بالأحداث الحاليّة، وإنما يمكنها أيضًا تشويه الماضي وزرع ذكريات زائفة في عقول الناس، ما يعني أنها تستطيع تغيير الطريقة التي نتذكر بها التاريخ وليس فقط الوقائق التي نعاصرها
وفي هذا الشأن تقول ليندا ليفين اختصاصية علم نفس في جامعة كاليفورنيا: “لدينا وهم أننا نتذكر الأشياء كما حدثت، على الرغم من أن ذاكرتنا تتغير طوال الوقت”، وتدلل بذلك إلى دراسة أجريت بعد أحداث 11 من سبتمبر/أيلول، حيث أجرى باحثون نفسيون مقابلات مع آلاف الأشخاص في جميع أنحاء البلاد، وطرحوا عليهم أسئلة بسيطة مثل: “أين كنت عندما حدثت الواقعة”؟ ثم تابعوا هذا الاستبيان على مدار 10 أعوام.
بينت النتائج لاحقًا أن ذكريات المشاركين استمرت في التغير والتبدل، ومع ذلك ظلوا واثقين للغاية أنهم يتذكرون الحقيقة، ما دفع العلماء إلى فتح ملف جديد عن مخاطر انتشار الذاكرة الخاطئة في ظل تنامي القدرات التكنولوجية على بناء عالم من الأوهام خالٍ من الحقائق، إلى ذلك، تكشف لنا هذه التحليلات والتساؤلات ملامح المرحلة القادمة التي سيشهدها العالم في ظل هذه الخوارزميات التي تتلاعب بالمواقف الدولية والتوجهات الشخصية، فهل تصبح الحقيقة عملة نادرة التداول في السنوات المقبلة؟