ترجمة وتحرير: نون بوست
قُتل ما لا يقل عن 49 شخصا يوم الجمعة داخل مسجدين في مدينة كرايستشيرش النيوزيلندية في هجوم كشف الوجه القاتم للإرهاب في عصر وسائل التواصل الاجتماعي. وعلى ما يبدو، أطلق المصور جملة من التحذيرات على موقعي تويتر و8شان قبل نشر مقطع الفيديو خاصته في بث مباشر على موقع فيسبوك، والذي تضمن مشاهد دموية دامت 17 دقيقة، وهو ما قابله مشاركة المستخدمين لمقطع الفيديو المذكور وإعادة نشرها على مواقع مثل يوتيوب وريديت وتويتر بشكل شبه فوري. وعمدت بعض الوكالات الإخبارية إلى نشر مقاطع من الهجوم خلال إبلاغها عن الدمار الذي حدث.
بالتزامن مع استيقاظ المسؤولين التنفيذيين في السيليكون فالي صباح يوم الجمعة، كانت خوارزميات الذكاء الاصطناعي لدى الشركات العملاقة وجيوش الإشراف على المحتوى الرقمي الدولية تسعى جاهدة لاحتواء الأضرار، بيد أنها لم تحقق نجاحًا كبيرا في ذلك. بعد ساعات قليلة من انطلاق عملية إطلاق النار الوحشية، كان المستخدمون في موقع يوتيوب قادرين على الوصول إلى مقطع الفيديو بسهولة، وذلك من خلال الاعتماد على كلمات البحث المفتاحية بكل بساطة، مثل اسم منفذ الهجوم.
تطرح مثل هذه الجرائم تساؤلا جليا حول سبب عجز الشركات التكنولوجية الكبرى عن التوصل إلى طريقة ناجعة لمنع انتشار مقاطع فيديو لأحداث دامية بعد كل هذا الوقت
في واقع الأمر، لا تعتبر هذه المرة الأولى التي يحدث فيها مثل هذا الأمر وفق هذا النمط، فلقد مر قرابة أربع سنوات على مقتل صحفيين في ولاية فيرجينيا وتصوير عملية إردائهما بطلقات نارية. وتجدر الإشارة إلى أن القاتل قام آنذاك ببث تفاصيل جريمته على موقعي فيسبوك وتويتر. ويضاف إلى هذه اللائحة عملية إطلاق النار جماعي في مدينة دالاس الأمريكية منذ قرابة ثلاث سنوات.
تطرح مثل هذه الجرائم تساؤلا جليا حول سبب عجز الشركات التكنولوجية الكبرى عن التوصل إلى طريقة ناجعة لمنع انتشار مقاطع فيديو لأحداث دامية بعد كل هذا الوقت. ومن المرجح أن الإجابة قد تكون مخيبة للآمال وبسيطة للغاية، حيث أن حظر هذا المحتوى ومنعه من الانتشار أصعب بكثير مما يبدو عليه.
يعمل كل من فيسبوك وغوغل منذ سنوات على تطوير آليات يمكنها اكتشاف الصور ومقاطع الفيديو والنصوص التي تنتهك سياستها وتزيلها. من جهته، يستخدم موقع فيسبوك أداة فوتو دي آن آي التي طورتها شركة مايكروسوفت للتعرف على الصور ومقاطع الفيديو الإباحية للأطفال، كما طورت غوغل نسختها مفتوحة المصدر من الأداة ذاتها. واستثمرت الشركتان في تطوير تكنولوجيات تمكنهما من رصد منشورات المتطرفين، وتعملان على تكثيف جهودهما وتظافرها ضمن إطار مجموعة تعرف باسم “منتدى الإنترنت العالمي لمكافحة الإرهاب” لمشاركة بياناتهما حول المحتوى المعروف ذو الصبغة الإرهابية.
على الرغم من كونها غير مكتملة، يمكن للأنظمة الآلية المخصصة للإشراف على المحتوى أن تكون مفيدة
حيال هذا الشأن، تولد هذه البرامج توقيعات رقمية تعرف باسم تجزئة الصور ومقاطع الفيديو المعروفة بكونها تمثل مصدرا للمتاعب وتمنع إمكانية تحميلها مرة ثانية. وتمتلك مواقع مثل فيسبوك تقنية تعلم آلي مبرمجة على التعرف على المحتوى المثير للقلق، مثل مقاطع فيديو لعمليات ذبح أو صور تضم علم تنظيم الدولة. ويُضاف إلى هذه التقنيات خوارزميات الذكاء الاصطناعي التي تكشف عن المزيد من المشكلات الخطيرة، مثل انتهاك حقوق النشر.
على الرغم من كونها غير مكتملة، يمكن للأنظمة الآلية المخصصة للإشراف على المحتوى أن تكون مفيدة. فعلى سبيل المثال، تُزال غالبية مقاطع الفيديو ذات المحتوى المخالف بواسطة تقنيات الذكاء الاصطناعي، كما أن 73 بالمائة من المقاطع المُزالة يتم تحديدها بواسطة وسوم معينة وحذفها حتى قبل أن يشاهدها أي شخص. وإقرارا للحق، تتخذ الأمور منحى أصعب عندما يتعلق الأمر بالبث المباشر للفيديو أو مقاطع الفيديو التي تُبث في الأخبار، حيث أسفر هجوم مساجد كرايستشيرش الإرهابي عن محتوى رقمي يندرج ضمن هاتين الخانتين.
حيال هذا الشأن، صرح الأستاذ في كلية كينيدي بجامعة هارفارد والعضو السابق في فريق الخصوصية وسياسة الاستخدام في موقع فيسبوك، ديبايان غوش، أن: “الشركات التكنولوجية الكبرى لم تصل بعد إلى تطوير ذكاء اصطناعي قادر على حذف مثل هذا النوع من المحتوى بشكل استباقي وفعال على الرغم من كون التكنولوجيا ومواقع التواصل الاجتماعي تمثل أحد أكبر المجالات المدرة للأرباح في العالم”. ويحيلنا هذا التصريح على تبين الأسباب التي دفعت إدارتي فيسبوك وتويتر إلى الاعتماد على فرق من المشرفين على المحتوى في كافة أنحاء العالم.
ليس من الواضح سبب تمكن الإرهابي من بث فيديو اعتدائه على مسجد كرايستشيرش لمدة 17 دقيقة متواصلة، أو ما إذا كانت هذه المدة تمثل إطارا زمنيا قصيرا لدى فيسبوك
نشر موقع ماذربورد الأمريكي عدة تقارير توضح كيفية معالجة مشرفي المحتوى في موقع فيسبوك على مراجعة مقاطع الفيديو التي أبلغ عنها المستخدمون. ووفقا للوثائق الداخلية المتحصل عليها، يمكن لهؤلاء المشرفين تجاهل الفيديو أو حذفه أو إعادة مراجعة محتواه أو إحالته إلى فرق المراجعة المتخصصة خلال الدقائق الخمس الأولى من قيام المستخدم بالتبليغ عنه. وتفيد هذه الوثائق أن المشرفين يُطلب منهم أيضًا البحث عن علامات التحذير في مقاطع الفيديو التي تُبث بصفة مباشرة، مثل البكاء والتوسل والشجار أو عرض الأسلحة مثل البنادق والسكاكين والسيوف أو حتى صوت الأسلحة النارية.
ليس من الواضح سبب تمكن الإرهابي من بث فيديو اعتدائه على مسجد كرايستشيرش لمدة 17 دقيقة متواصلة، أو ما إذا كانت هذه المدة تمثل إطارا زمنيا قصيرا لدى فيسبوك. ومن جهتها، لم ترد الشركة الأمريكية على استفسارات مجلة وايرد حول هذا الموضوع، أو عن التساؤلات التي تتمحور حول كيفية تمييز موقع فيسبوك بين المحتوى الإخباري والعنف المجاني.
عقب انتشار القصة، أرسل موقع فيسبوك المزيد من التوضيحات حول كيفية تعامله مع مقاطع الفيديو الخاصة بعملية إطلاق النار هذه. وصرح متحدث رسمي باسم الشركة أنه: ” منذ وقوع الهجوم، تعمل فرق فيسبوك على مدار الساعة للرد على التقارير وحجب المحتوى، وتحديد ما إذا كان ينتهك معاييرنا ولدعم الأشخاص الذين يبلغون عنه وإنفاذ القانون بشكل استباقي. نحن نضيف كل فيديو نعثر عليه إلى قاعدة بيانات داخلية تمكننا من اكتشاف نسخ مقاطع الفيديو وإزالتها تلقائيًا عند تحميلها مرة أخرى. نحث الأشخاص على الإبلاغ عن جميع الحالات حتى تتمكن أنظمتنا من منع الفيديو من المشاركة مرة أخرى“.
أفاد المتحدث الرسمي باسم موقع فيسبوك أن: “قلوبنا مع الضحايا وعائلاتهم والمجتمع الذي تضرر بفعل هذا العمل الشنيع. لقد أخبرتنا الشرطة النيوزيلندية بشأن مقطع الفيديو على موقع فيسبوك بعد وقت قصير من بدأ البث المباشر، وعملنا على إزالة حسابي فيسبوك وإنستغرام الخاصين بمطلق النار”
بناء على ذلك، يمكن القول إن الفيديو الأصلي تعرض للتجزئة مما يجعل عملية مشاركة مقاطع الفيديو الشبيهة له مرة أخرى أمرا غير ممكن. فعلى سبيل المثال، يعمد بعض الأشخاص إلى تشغيل مقاطع الفيديو بقياسات أصغر وفي إطار ثان داخل الإطار الأصلي للفيديو لتجنب حذف مقاطعهم، لكن فيسبوك يعتمد على تقنيات الذكاء الاصطناعي ذاتها لرصد الدم والأشلاء، فضلا عن توظيف تقنية الكشف عن الصوت. ويقول مسؤولون في فيسبوك أنه عندما يجدون هذا المحتوى قادما من منصات أخرى، فإنهم يعمدون إلى مشاركة معلوماتهم معها.
في بيان سابق، أفاد المتحدث الرسمي باسم موقع فيسبوك أن: “قلوبنا مع الضحايا وعائلاتهم والمجتمع الذي تضرر بفعل هذا العمل الشنيع. لقد أخبرتنا الشرطة النيوزيلندية بشأن مقطع الفيديو على موقع فيسبوك بعد وقت قصير من بدأ البث المباشر، وعملنا على إزالة حسابي فيسبوك وإنستغرام الخاصين بمطلق النار، فضلا عن الفيديو الذي نشره. نحن نزيل أيضا أي ثناء على هذه الجريمة أو أي محتوى أو تعليقات داعمة لها ولمطلق النار بمجرد علمنا. سوف نستمر بالعمل مع الشرطة النيوزيلندية بشكل مباشر بالتزامن مع استمرار تحقيقاتهم واستجواباتهم“.
علاوة على ذلك، أرسل المتحدث باسم شركة غوغل في نيوزيلندا بيانا مشابها في رده على الأسئلة التي وجهتها مجلة وايرد، وورد فيه: “قلوبنا مع ضحايا هذه الفاجعة الرهيبة. لا مكان للمحتوى والصور العنيفة والصادمة على منصاتنا، ونحن نزيله بمجرد إدراكنا لوجوده. وكما هو الحال مع أي مأساة كبرى، سنعمل بالتعاون مع السلطات”. وعلى الرغم من ذلك، أضاف ممثل الشركة أن المحتوى المتعلق بالجريمة والذي يمتلك قيمة إخبارية لن يُحذف، وهو ما يضع غوغل في موقف صعب تضطر خلاله إلى تحديد ماهية مقاطع الفيديو الإخبارية التي تستحق النشر.
تعرض موقع يوتيوب على وجه الخصوص في الماضي لعديد الانتقادات بسبب حذفه مقاطع فيديو تسلط الضوء على الفظائع التي تحصل في سوريا والتي يعتمد عليها الباحثون
سيكون من الأسهل كثيرًا على شركات التقنية اتباع نهج القوة الغاشمة ومنع نشر كل مقطع من عملية إطلاق النار، وربما بإمكانها اعتماد التقنية ذاتها المستخدمة في منع تداول ونشر الصور الإباحية للأطفال. وفي حين يجادل البعض بالقول إن هذا النهج يستحق الدراسة، منح فيسبوك ويوتيوب استثناءَات صريحة للمؤسسات الإخبارية فيما يتعلق بتعديل المحتوى. وبمعنى آخر، يمكن لمقطع فيديو يمجد عملية إطلاق النار على حساب أحد المستخدمين في موقع يوتيوب أن يظهر في أحد التقارير الإخبارية لوسيلة إخبارية محلية.
تعرض موقع يوتيوب على وجه الخصوص في الماضي لعديد الانتقادات بسبب حذفه مقاطع فيديو تسلط الضوء على الفظائع التي تحصل في سوريا والتي يعتمد عليها الباحثون. في الواقع، هذا الأمر يترك شركات التكنولوجيا في موقف صعب ليس فقط في محاولة تقييم قيمة الأخبار، ولكن أيضًا في محاولة اكتشاف طرق لأتمتة هذه التقييمات على نطاق واسع.
وكما كتب المستشار العام لشركة غوغل، كيينت ووكر في منشور له على إحدى المدونات سنة 2017، “يمكن للآلات أن تساعد في تحديد مقاطع الفيديو التي قد ينجر عن تداولها مشاكل عدة، ولكن لا يزال الخبراء البشريون يلعبون دورًا في القرارات الدقيقة حول الخط الفاصل بين الدعاية العنيفة والخطاب الديني أو الحديث الإخباري“.
وفقًا لغوش “بالطبع، هناك إشارات يمكن لهذه الشركات استخدامها لتحديد مصدر الفيديو والغرض منه؛ “توقيت المحتوى، ونوع المحتوى الذي كان ينزله صاحب المنشور في الماضي؛ تلك هي أنواع الإشارات التي يجب عليك استخدامها عندما تصادفك هذه المواقف الحتمية، حيث يكون لديك منظمات إخبارية وأفراد يدفعون لنشر هذا المحتوى ولكنك لا تريد أن يتم النشر إلا من قبل المنظمات الإخبارية“.
اقترح البعض أنه إذا كانت مقاطع فيديو كرايستشيرش هذه تظهر بشكل أسرع مما يستطيع يوتيوب التعامل معه، فينبغي عليه إيقاف جميع عمليات تحميل الفيديو إلى أن يتعامل مع المشكلة
يجادل غوش في خصوص عدم تحقيق شركات التكنولوجيا أي تقدم في هذا بأنها تفتقر إلى أي حوافز ملموسة: “لا يوجد ما يجبرهم على أن يكون لديهم خطط أفضل لضبط المحتوى. على سبيل المثال في العام الماضي طرح المنظمون في المفوضية الأوروبية اقتراحًا لإقامة منصات لا تسمح للمتطرفين بالبقاء في العالم الإفتراضي إلا لساعة واحدة.
في الختام، يبقى الإشكال الرئيسي هو عدد المستخدمين الكبير. ومن المحتمل أن عدد مستخدمي فيسبوك ويوتيوب قد تطور بشكل كبير لدرجة عدم القدرة على التحكم به. في الحقيقة، اقترح البعض أنه إذا كانت مقاطع فيديو كرايستشيرش هذه تظهر بشكل أسرع مما يستطيع يوتيوب التعامل معه، فينبغي عليه إيقاف جميع عمليات تحميل الفيديو إلى أن يتعامل مع المشكلة.
ولكن لا يوجد أي معايير لتحديد للأصوات التي يجب إسكاتها في ذلك الوقت. رغم كل عيوبها، يمكن أن تكون المنصات الاجتماعية أيضًا مصادر قيمة للمعلومات خلال ظهور أحد الأخبار. علاوة على ذلك، الحقيقة المحزنة تتمثل في أنه في حالة توقف فيسبوك ويوتيوب عن العمل في كل مرة ينزل فيه منشور فضيع، فقد لا تعود للظهور من جديد.
المصدر: وايرد