ترجمة وتحرير نون بوست
حين أدلى جيمس كومي بشهادته أمام لجنة الاستخبارات في مجلس الشيوخ في الثامن من حزيران/يونيو الماضي، قال آنذاك ساخطا: “يا إلهي، آمل أن تكون هناك أشرطة”. ويعكس ما صرح به كومي رغبة مألوفة عند الأفراد المتهمين بالكذب عند مواجهتهم لتهم خطيرة. وقد أمل المدير السابق لمكتب التحقيقات الفيدرالي في أن تكون هناك أشرطة نظرا لدور تسجيلات الصوت والفيديو في مجتمعنا كحكم نهائي للفصل في الحقائق. وفي الواقع، دائما ما تخسر الأقاويل الرهان مقابل ما تظهره الأشرطة.
في زمننا هذا، وعندما يشاهد الأشخاص شريط فيديو يظهر سياسيا أثناء تلقيه رشوة، أو جنديا بصدد ارتكابه جريمة حرب، أو فضيحة جنسية لأحد المشاهير، يصبح بمقدورهم افتراض أن ما تم تصويره قد حدث بالفعل شريطة أن يكون المقطع ذو نوعية معينة ولم يقع تعديله بالطبع. وقد أضحى عالم الحقائق، المقترن بتصديق المرء لكل ما يشاهده، مهددا من قبل تكنولوجيات الذكاء الاصطناعي.
والجدير بالذكر أننا لم نواجه أي إشكال مع ما يتضمنه المستقبل من تحليلات وبيانات ضخمة وتعلم آلي تمكننا من رصد الواقع وتمييز الحقيقة. في المقابل، تم إيلاء اهتمام أقل بكثير لقدرة هذه التكنولوجيات في مساعدتنا على الكذب أيضا. في الأثناء، تحرز القدرات الرامية إلى تزوير المقاطع الصوتية والمرئية تقدما مذهلا وذلك بفضل الدفع الذي يقدمه الذكاء الاصطناعي.
من هذا المنطلق، سيواجه الناس في المستقبل المعطيات المرئية والصوتية المزورة والشبيهة بالواقع باستمرار. وبالتالي، سيناضل الجميع لمعرفة ما عليهم تصديقه ومن هو جدير بثقتهم حين يغرقون في دوامة الصورة والصوت، والفيديو، والوثائق الحقيقية والمزورة على حد سواء. وفي هذا الصدد، تعمل شركة “ليريبيرد”، وهي شركة تكنولوجيا ناشئة للتعلم العميق ومقرها في مونتريال، على تطوير تكنولوجيا تسمح لأي شخص بإنتاج خطاب شبه واقعي بالاعتماد على صوت أي فرد بشكل مثير للدهشة.
في الحقيقة، تظهر تجارب الشركة إمكانية إنتاج خطاب باستخدام أصوات كل من دونالد ترامب، وباراك أوباما، وهيلاري كلينتون، مع الأخذ بعين الاعتبار طبقات الصوت المختلفة. وعلى الرغم من أن عمليات انتحال الشخصية تبدو مثيرة للإعجاب في الوقت الراهن، إلا أنها تتميز بجودة غامضة وتغلب عليها الآلية ما يسمح لأي أذن وإن كانت غير مدربة للتعرف على الصوت المنشأ بالحاسوب بسهولة. ومع ذلك، تحقق هذه التكنولوجيا تقدما سريعا حيث يعمل عملاق البرامج الإبداعية، أدوبي، على تطوير تكنولوجيا مماثلة معلنا عن هدفه المتمثل في إنتاج “فوتوشوب للصوت”.
من جانبهم، تمكن الباحثون في جامعة ستانفورد وأماكن أخرى من تطوير قدرات مذهلة تسمح بتزوير الفيديو. وبالاعتماد على كاميرا ويب فقط، يسمح برنامج الباحثين القائم على الذكاء الاصطناعي للفرد بتغيير واقعي لتعابير الوجه وحركات الفم المرتبطة بالكلام لأي شخص في مقطع فيديو على موقع يوتيوب.
في السياق ذاته، توصلت مجموعات بحث أخرى في مجال الذكاء الاصطناعي إلى إثبات القدرة على تشغيل قدرات التعرف على الصور في الاتجاه المعاكس ما يسمح بتوليد صور اصطناعية اعتمادا على وصف النص فحسب. وفي هذا الإطار، صرح جيف كلون، أحد الباحثين الذين قادوا هذا العمل لموقع “ذا فيرج”، أن “الناس يرسلون لي صورا حقيقية تدفعني للتساؤل عما إذا كانت مزيفة. وفي حال أرسلوا لي صورا مزيفة، أفترض أنها حقيقة نظرا لجودتها العالية”.
في الحقيقة، يبدو مسار التزوير الاعلامي ذو الجودة العالية والتكلفة المنخفضة مثيرا للقلق. وبالنظر للوتيرة الحالية للتقدم في هذا المجال، لم يتبق أمامنا سوى سنتين أو ثلاث سنوات قبل أن يصبح التزييف الصوتي الواقعي جيدا بما يكفي لخداع الأذن غير المدربة. علاوة على ذلك، أصبحت تفصلنا من خمس إلى 10 سنوات قبل أن يتمكن التزييف من خداع بعض من أنواع تحليل الطب الشرعي على الأقل.
أما حين يبلغ أداء الأدوات المسؤولة عن إنتاج فيديو وهمي جودة أعلى مقارنة باليوم وتصبح متاحة في الوقت نفسه للهواة غير المدربين، فقد تشمل عمليات التزييف هذه جزءا كبيرا من النظام الإيكولوجي للمعلومات. من جهة أخرى، سيتسبب نمو هذه التكنولوجيا في قلب معاني الأدلة والحقائق في عدة مجالات على غرار الصحافة والاتصالات الحكومية والشهادة في مجال العدالة الجنائية والأمن القومي بالطبع.
تجدر الإشارة إلى أن خدمة المخابرات الروسية توظف الآلاف من العاملين بدوام كامل الذين يعكفون على تأليف مقالات إخبارية وهمية ومنشورات على وسائل التواصل الاجتماعي فضلا عن وضع التعليقات على المواقع الرئيسية. ويتحكم هؤلاء العملاء بدورهم بملايين حسابات “البوتنت” على وسائل التواصل الاجتماعي التي تشارك تغريدات حول السياسة بغية تشكيل الخطاب الوطني.
في هذا السياق، توصلت دراسة أجراها “مشروع بحوث الدعاية الحاسوبية” في معهد أكسفورد للإنترنت إلى أن نصف حسابات موقع تويتر التي تعلّق بانتظام بشأن السياسة في روسيا ليسوا سوى “بوتات”. في المقابل، لا تقف هذه العمليات عند الحدود الروسية، ففي الولايات المتحدة أثبتت البوتات الروسية في مواقع التواصل الاجتماعي بالفعل قدرتها على توجيه التغطية الاعلامية السائدة للأخبار الكاذبة بل وحتى التأثير على أسعار الأسهم الأمريكية.
عند هذه المرحلة، ما الذي يحدث حين يتم تسليح هؤلاء العملاء والبوتنت أيضا بالقدرة على التوليد التلقائي ومشاركة مقاطع الصوت والفيديو عالية الدقة وليس مجرد تغريدات وهمية لأخبار كاذبة. في الواقع، يجب أن لا تقف صناعة التكنولوجيا والحكومات مكتوفة الأيدي لمعرفة ذلك حيث أن التهديدات الناشئة عن صعود هذه التكنولوجيا تحمل أوجها عدة وكذلك يجب أن تكون الحلول.
في هذا الصدد، ستحمل بعض من هذه الحلول صبغة تكنولوجية. ومثلما هناك حلولا تكنولوجية (بشكل منقوص لا يمكن إنكاره) تسعى إلى منع استخدام برامج الصور من قبيل فوتوشوب لتزوير الأموال، قد تكون هناك حلول أخرى قادرة على تخفيف أسوأ الآثار الناجمة عن التزوير الذي يخوله الذكاء الاصطناعي.
من جهتها، تقدم تقنية بلوكشين أو “سلسلة الكتل”، وهي التقنية ذاتها المستخدمة لتأمين العملات المعماة من قبيل بيتكوين، إمكانية واحدة تتمثل في توفير أدلة مضمونة بطريقة مشفرة لتنظيم معاملات بيتكوين مما لا يترك المجال أمام أي شخص لإنفاق العملة المعماة ذاتها لمرتين. بالإضافة إلى ذلك، قد يكون من الممكن تصميم الكاميرات والميكروفونات التي تستخدم تقنية بلوكشين لخلق سجل لتاريخ إنشاء تسجيلات الفيديو بشكل لا يدع مجالا للشك.
على الرغم من أن هذه الخطوة لن تمنع تحرير التسجيل فيما بعد أو ظهور الأدلة المضادة المزورة، إلا أنها ستسمح على الأقل للأدلة المضمونة بطريقة مشفرة بإظهار تواجد ملف معين في تاريخ معين ما قد يُمكّن الخبراء من استنتاج أن الإصدارات اللاحقة ربما وقع تحريرها. أما الحلول الأخرى فستكون تنظيمية وإجرائية، حيث قد يضطر ضباط الشرطة والمدّعون العامون إلى تطوير معايير للأدلة لإثبات أسباب عملية القبض على الأفراد من خلال استخدام كاميرا أو ميكروفون بعينه.
في الواقع، قد يصبح ملف فيديو مُرسل عبر بريد إلكتروني مجهول في نهاية المطاف غير مجديا مثلما هو الحال اليوم بالنسبة لشهادة الشهود المُرسلة عبر بريد الكتروني مجهول أيضا. فضلا عن ذلك، قد تحمل كافة أساليب المؤسسات تقديرا جديدا للمحادثات التي تُجرى وجها لوجه حين لا يقتصر الأمر على الاعتراض الرقمي للمكالمات الهاتفية ودردشات الفيديو فحسب بل انتحالها رقميا أيضا.
منذ أواخر القرن التاسع عشر، ومع اختراع الصورة والفونوغراف، أصبح المجتمع قادرا على النفاذ إلى التكنولوجيا التي بإمكانها تقديم إجابة ضمن النزاعات المتعلقة بالحقيقة. وفي الوقت الذي نفى فيه الرئيس ريتشارد نيكسون علمه بالتغطية على السطو الذي طال ووترغيت، أثبتت الأشرطة كذبه.
وفي حال لم يواجه القادة الحكوميون ورجال الأعمال هذا التحدي بشكل جدي، سيتعين علينا آنذاك العيش في مجتمع يغيب عنه الحكم النهائي الذي ينطق بالحقيقة. وقد تتحقق أمنية جيمس كومي بعد 10 سنوات وتظهر أشرطة محادثاته مع دونالد ترامب، وعند تلك النقطة سيتعين على المواطنين والمؤرخين على حد سواء التساؤل حول ما إذا كانت الأشرطة حقيقية أو أنها حالة أخرى من حالات التزوير الذي يخوله الذكاء الاصطناعي.
المصدر: وايرد