ترجمة حفصة جودة
في عصر الفوتوشوب والفلاتر ووسائل التواصل الاجتماعي، اعتاد الكثير منا رؤية الصور التي تم التلاعب بها، حيث يصبح الأشخاص أصغر حجمًا وأكثر نعومة وفي حالة سناب شات فإنهم يتحولون إلى جراء.
ومع ذلك هناك مجموعة جديدة من أدوات التلاعب بالصوت والفيديو التي أصبحت ممكنة بفضل التقدم في الذكاء الاصطناعي ورسومات الكمبيوتر، وهذا من شأنه أن يسمح للقطات واقعية لشخصيات عامة أن تظهر وهي تقول أي شيء.
فترامب يعترف بميله للرياضات المائية، وهيلاري كلينتون تصف الأطفال المخطوفين الذين تحتفظ بهم في قبو النبيذ، أنا توم كروز فيعترف – بما كنا نشك به دائمًا – أنه بروني (شخصية كرتونية).
يستطيع المهاجم أن ينقل الصوت بطريقة تخدع البشر وأنظمة الأمن البيومترية التي تستخدمها بعض البنوك والهواتف الذكية
هذا هو مستقبل الأخبار الوهمية، لقد كنا نحذر لفترة طويلة من تصديق كل ما نقرأه، أما الآن فنحن نحذر أيضًا مما نراه أو نسمعه، يعمل فريق من الباحثين الآن على التقاط وتركيب مختلف العناصر الصوتية والمرئية للسلوك البشري.
كانت البرمجيات التي طُورت في جامعة ستانفورد قادرة على التلاعب بلقطات فيديو خاصة بشخصيات عامة، فهي تسمح لشخص آخر بوضع الكلمات على أفواههم، فمن خلال تقنية “Face2Face” يتم التقاط تعبيرات وجه الشخص الثاني في أثناء حديثه من خلال الكاميرا ثم نقل هذه الحركات بسهولة وبشكل مباشر إلى وجه الشخص في الفيديو الأصلي، جرب فريق البحث تلك التقنية عندما وضعوا وجوه دمى في مقاطع فيديو تخص جورج بوش وفلاديمير بوتين ودونالد ترامب.
هذه التقنية في حد ذاتها لعبة ممتعة لخلق ميمات (وحدات ثقافية) وللتسلية في البرامج التي تعرض في وقت متأخر من الليل، ومع ذلك عند إضافة الصوت يصبح الأمر الأكثر إقناعًا، فالدمية لا تبدو فقط مثل الشخصية السياسية لكن صوتها يشبه الشخصية السياسية كذلك.
حتى الآن هذه التقنية ليست مثالية تمامًا، فتعبيرات الوجه في مقطع الفيديو قد تبدو مشوهة وغير طبيعية
يعمل فريق بحث بجامعة ألاباما في برمنجهام على انتحال الأصوات، فمن خلال 3 إلى 5 دقائق من تسجيل لصوت الضحية المأخوذ بشكل مباشر أو من خلال يوتيوب أو برنامج إذاعي، يستطيع المهاجم أن ينقل الصوت بطريقة تخدع البشر وأنظمة الأمن البيومترية التي تستخدمها بعض البنوك والهواتف الذكية، يستطيع أن يتحدث في الميكروفون ثم يحول البرنامج الصوت حتى تبدو الكلمات وكأنها تخرج من فم الضحية سواء من خلال الهاتف أو برنامج إذاعي.
طورت شركة ليربيرد الكندية النائشة من قدرات مماثلة، حيث تقول إنها تستطيع أن تحول النص المكتوب لكتاب مسموع يقرأه أصوات لشخصيات عامة أو شخصيات مشهورة في ألعاب الفيديو، ورغم أن نوايا ذلك قد تكون حسنة فإن تقنية تحويل الصوت من الممكن دمجها مع تقنية تحويل الوجه وإنشاء تصريحات وهمية مقنعة لشخصيات عامة.
يمكنك أن تشاهد مشروع جامعة واشنطن الخاص بأوباما، حيث استخداموا تسجيل صوت من أحد خطابات أوباما واستخدموه لتحريك وجهه في فيديو مختلف تمامًا بدقة متناهية – بفضل تدريب شبكة الخلايا العصبية المتكرر على ساعات من لقطات الفيديو – لتجربة شعور الغدر والغش.
بالإضافة إلى الأخبار المزيفة هناك العديد الآثار السيئة الأخرى، يقول نيتش ساكسينا أستاذ مساعد ومدير أبحاث بجامعة ألاباما في برمنجهام قسم علوم الحاسب “يمكنك أن تترك رسالة صوتية وهمية لتبدو وكأنك أم لشخص ما، أو لتشويه سمعة شخص ما ونشر مقطع الصوت على الإنترنت”.
لسنا بحاجة لمقطع صوتي أو فيديو مزيف لنجعل الناس يصدقون أشياءً ليست حقيقية
حتى الآن هذه التقنية ليست مثالية تمامًا، فتعبيرات الوجه في مقطع الفيديو قد تبدو مشوهة وغير طبيعية وقد يبدو الصوت آليًا بعض الشيء، لكن مع الوقت سيكونوا قادرين على تعديل صوت ومظهر الشخص بطريقة تجعل من الصعب على البشر اكتشاف هذه الحيلة.
ونظرًا لانعدام الثقة في وسائل الإعلام وتفشي الخداع في وسائل التواصل الاجتماعي، أصبح من الضروري أن تدقق المنظمات الإخبارية في المحتوى الذي يبدو وكأنه حقيقيًا، من الممكن اكتشاف علامات الفيديو المزيف عند البحث في مكان إصدار الفيديو ومن كان موجودًا في ذلك الحدث وهل تتفق الأحوال الجوية لذلك اليوم مع الموجود في الفيديو.
يقول ماندي جينكينز من شركة “Storyful” وهي شركة إخبارية اجتماعية متخصصة في التحقق من المحتوى الإخباري: “يجب على الناس النظر جيدًا للإضاءة والظلال في الفيديو ويجب أن تكون جميع العناصر في إطارها الصحيح وأن يكون الصوت متزامنًا تمامًا مع المحتوى الإخباري”.
يجب ألا يمر المحتوى المزيف من الفحص الصارم لغرف الأخبار، لكن إذا نُشر المحتوى على وسائل التواصل الاجتماعي فقد ينتشر بشكل كبير ويتسبب في كارثة للعلاقات العامة والسياسية والدبلوماسية، تخيل مثلًا أن ترامب يعلن الحرب على كوريا الشمالية.
يقول ساكسينا: “إذا خرج لنا شخص يشبه ترامب ويتحدث مثله سنعتقد حتمًا أنه ترامب”، ويقول جينكينز “نحن بالفعل لسنا بحاجة لمقطع صوتي أو فيديو مزيف لنجعل الناس يصدقون أشياءً ليست حقيقية، هذا الأمر يؤدي إلى تدهور الوضع”.
المصدر: الغارديان