ترجمة وتحرير نون بوست
تجمع الطلاب العسكريون الذين يرتدون ملابس تمويهية حول ساحة صغيرة في قبو مبنى محفور في المنحدرات في حرم الأكاديمية الأمريكية العسكرية، لمشاهدة نموذج دبابة آلية صغيرة الحجم مُرفقة برمح معدني. وتحيط بالدبابة بالونات مختلفة الألوان تمثل إما مقاتلين من الأعداء أو مدنيين، وتستخدم هذه الدبابة ذاتية التشغيل كاميرا مصغرة للتصويب على البالونات الحمراء. انتفض الطلاب من أماكنهم عند تردد صوت دوي قوي مفاجئ في أرجاء الغرفة وهتفوا: سقط أحد “مقاتلي تنظيم الدولة”.
كان هذا الانفجار المذهل الهدف من هذا التمرين، وهو جزء من محاضرة في الأخلاق العسكرية يدرّس لطلاب السنة الثانية في الأكاديمية العسكرية الأمريكية. قام الطلاب ببرمجة الدبابة باستخدام خوارزمية توجهها لاستخدام الرمح المعدني “لقتل” مقاتلي العدو، ويقومون حاليا بتعديل الخوارزميات لجعل الروبوت إما أكثر أو أقل عدوانية في أداء مهمته – مع إحداث أقل ضرر ممكن للأهداف غير المقصودة.
في ظل وجود مجموعة من الأسلحة ذاتية التشغيل الفتاكة التي يجري تطويرها اليوم، فإن البالونات المتفجرة من المفترض أن تثير تساؤلات في أذهان الطلاب بشأن القرارات الأخلاقية واسعة النطاق التي سيتخذونها كقادة عسكريين في الميدان. يعتقد الكولونيل كريستوفر كوربيلا، مدير مركز الروبوتات في الأكاديمية الأمريكية العسكرية – وهو خير مثال للجدية سلوكًا ومكانةً – أن نشر آلات القتل ذاتية التشغيل أمر لا مفر منه ويريد التأكد من أن هؤلاء الضباط قيد التدريب مستعدون للتعامل معها، مؤكدا أن “هناك تأثيرًا عميقًا للغاية: صحيح أن هذا الروبوت يفجّر البالون؛ ولكن هذا البالون، يمثل هدفا بشريًا، وهذا يجعله أكثر واقعية”.
يتفاعل الطلاب مع التحدي بطرق شتى يمكن التنبؤ بها. يشعر البعض بالقلق من أن نسيم هواء خفيف من نظام تكييف الهواء في المبنى يمكن أن يدفع بالونا مدنيا إلى مرمى الروبوت، لهذا السبب بدأوا بتعليم دباباتهم المصغرة الابتعاد 180 درجة عن أي هدف مدني يتم رصده، مما يضيّع فرصة قتل العدو. في الأثناء، يعمل آخرون على برمجة دباباتهم بمقاربة أكثر حماسة، مما يؤدي أحيانًا إلى فرقعة البالونات – بما في ذلك تلك التي تمثل “المدنيين” – بتهوّر.
في أكتوبر 2012، أطلقت منظمة “هيومن رايتس ووتش” وست منظمات أخرى حملة لإيقاف الروبوتات القاتلة
عندما زرته في سنة 2019، أخبرني الرائد سكوت بارسونز، أستاذ الأخلاقيات في الأكاديمية الأمريكية العسكرية، بأنه “ربما يتعلم بعض (الطلاب العسكريين) الكثير من الأخلاقيات، وربما لا يقتلون أي شخص أو ربما يكتفون بتحديد بعض الأهداف”. وأضاف قائلًا: “مهمتنا هي أن نخوض الحروب ونقتل الآخرين. ولكن هل نؤدي مهمتنا على أكمل وجه؟ هل نميّز بين الأهداف المعادية والمدنيين؟ هذا ما نريد أن يفكر فيه الطلاب العسكريون مليا وبعمق”.
إن درجة التدريبات في الأكاديمية الأمريكية العسكرية التي شارك فيها ما يقرب من 100 طالب حتى الآن صغير، لكن الإشكاليات التي تطرحها تجسد محاولات الجيش الأمريكي التعامل مع احتمال التفويت في بعض السيطرة للآليات الحربية الذكية على الأقل في الميدان.
قد تُشكّل المستقبل خوارزميات الحاسوب التي تتحكم في تحركات الأسلحة وكيفية استهداف الأعداء. ويعكس عدم اليقين الذي يساور الطلاب العسكريين بشأن مقدار الصلاحيات التي يجب منحها للروبوتات وكيفية التفاعل معها في الحرب التناقض واسع النطاق للجيش بشأن ما إذا كان يتعين عليه أن يرسم حدودا للسماح لآلات الحرب بالقتل بمفردها وأين يجب عليه القيام بذلك. كانت مثل هذه الآلات ذاتية التشغيل في يوم من الأيام بعيدة جدًا عن الإدراك التقني للعلماء لدرجة أن مناقشة أخلاقياتها كانت مجرد تمرين فكري. ولكن نظرا لأن التكنولوجيا قد استوعبت هذه الفكرة، فقد أصبح هذا النقاش حقيقيا للغاية.
تعمل البحرية الأمريكية على تجربة السفن التي بإمكانها الإبحار آلاف الأميال بمفردها للبحث عن غواصات أو سفن تابعة للعدو يمكنها إطلاق النار عليها في عرض البحر، بينما ينتشر مشاة البحرية على الشواطئ. يقوم الجيش بتجربة الأنظمة التي ستحدد الأهداف بينما توجه مدافع الدبابات تلقائيًا. وتطوّر القوات الجوية طائرات مسيّرة فتاكة يمكنها مرافقة الطائرات في المعركة أو شقّ طريقها بمفردها، وتعمل بشكل مستقل عن “الطيارين” الذين يجلسون على بعد آلاف الأميال أمام شاشات الحاسوب.
بينما تستمر المسيرة نحو توظيف الذكاء الاصطناعي في الحرب، فإنه التقدم الذي تحرزه مثير للجدل. تعتبر ماري ويرهام من بين النشطاء البارزين الذين يشجعون الحكومات على النظر في التداعيات الأخلاقية لتوظيف الذكاء الاصطناعي في الأسلحة. أمضت ويرهام، التي تنحدر من نيوزيلندا، والتي تحدثت معها في مكتبها بالعاصمة في شهر تموز/ يوليو 2019، معظم السنوات 20 الماضية في العمل مع منظمة “هيومن رايتس ووتش” في محاولة لدفع الحكومات إلى حظر الأسلحة المضادة للأفراد مثل القنابل العنقودية والألغام الأرضية. وفي الوقت الراهن، بصفتها مديرة المرافعة في قسم الأسلحة بالمنظمة، تعمل ويرهام على إقناع قادة العالم بفرض قيود شاملة على الأسلحة ذاتية التشغيل.
في شهر تشرين الأول/ أكتوبر من سنة 2012، أطلقت منظمة “هيومن رايتس ووتش” وست منظمات أخرى غير حكومية – بسبب قلقها بشأن القدرة المتنامية بسرعة للطائرات المُسيّرة ووتيرة الابتكار السريعة في مجال الذكاء الاصطناعي – حملة لإيقاف الروبوتات القاتلة. في السنة الموالية، تناولت اتفاقية الأمم المتحدة بشأن حظر استعمال أسلحة تقليدية معينة مسألة ما إذا كان ينبغي حظر صنع وبيع واستخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل تمامًا. وفي كل سنة منذ ذلك الحين، انضمت ويرهام إلى آخرين من حملة “أوقفوا الروبوتات القاتلة” للإلحاح على قضيتها في نفس الغرفة المتداعية في مكتب الأمم المتحدة في جنيف.
يمكن أن تفتقر الآلات إلى المنطق السليم، حيث تبحث أجهزة الكمبيوتر عن الحل الأسهل للمشكلات، وليس الحل الأكثر أخلاقية أو عملية.
تقوم حجة ويرهام الأساسية على حقيقة أن الآلات تفتقر إلى التعاطف ولا يمكنها أن تتخذ القرار من خلال البدائل الأخلاقية الصعبة، لذلك يعد استخدامها للقتل تجاوزا لعتبة الأخلاق. كما تزعم بأن الآلات لا يمكنها أن تدرك ما إذا كانت تحركاتها تخلق خطرا نسبيا مبررا على المدنيين، وهو مطلب أساسي في القانون الدولي. بالإضافة إلى ذلك، تقول ويرهام إن تبني مثل هذه الآلات على نطاق واسع من شأنه أن يزيد من احتمال اندلاع الحروب، حيث قد ترتكب الروبوتات أخطاء مأساوية ولن يكون من الواضح من الذي ينبغي تحميله المسؤولية. الشخص الذي استخدم هذا السلاح؟ مصمم السلاح؟ أم صانعه؟
ماذا لو كان مجرّد اختلاف بسيط في الزي الرسمي، مثل وجود بقع زيت أو تراب على القميص يحجب نمط التمويه العادي، ما يربك الكمبيوتر ويمنعه من التعرف على القوات الصديقة؟
أظهر استطلاع للرأي العام أجراه أعضاء الحملة في شهر كانون الأول/ ديسمبر 2020 معارضة الأغلبية لتطوير أسلحة الذكاء الاصطناعي في 26 من أصل 28 دولة شملها الاستطلاع، بما في ذلك الولايات المتحدة وروسيا والصين. ولكن حتى الآن لم تحرز ويرهام تقدما ملحوظا في فرض حظر من خلال اتفاقية الأسلحة التقليدية المعينة، التي تعمل كهيئة إجماع، ولن يقع تقديم أي مشروع معاهدة إلى الأمم المتحدة ما لم توافق جميع الدول الأعضاء البالغ عددها 125 دولة.
حتى الآن، لم توافق سوى 30 دولة على الحظر، بينما أعربت الولايات المتحدة وروسيا وإسرائيل، التي تستثمر بشكل كبير في أسلحة الذكاء الاصطناعي، عن رفضها. (لقد أيدت الصين بشكل صارم فرض حظر على استخدام هذه الأسلحة ولكن ليس تطويرها أو إنتاجها). حيال هذا الشأن، تقول ويرهام إنه “في حال كانت هذه البلدان ترفض توقيع معاهدة إلزام قانونية، فذلك يجعلنا نطرح السؤال التالي: ‘ماذا يمكنكم أن تدعموا؟’ لأنه يبدو أنكم لا تدعمون أي شيء في الوقت الراهن. نحن في وضع خطير الآن”.
إلى جانب المعضلات الأخلاقية التي يطرحها الذكاء الاصطناعي، ما زال التنبؤ بشكل واسع بالتفكير الحاسوبي غير ممكن، إذ يختلف هذا التفكير عن المنطق البشري بطرق قد تتسبب بصورة عرضيّة في وقوع إصابات أو فشل المهمة. يمكن أن تفتقر الآلات إلى المنطق السليم، حيث تبحث أجهزة الكمبيوتر عن الحل الأسهل للمشكلات، وليس الحل الأكثر أخلاقية أو عملية.
في سنة 2018، على سبيل المثال، صدمت سيارة ذاتية القيادة كانت قيد الاختبار من قبل أوبر امرأة في ولاية أريزونا وتسبّبت في قتلها. وقد كشف تحقيق حكومي استمر قرابة سنتين أن السيارة لم تتعطل، بل تمت برمجتها للبحث عن المترجّلين المتواجدين فقط على ممرات المشاة. كانت تلك المرأة تعبر الطريق عشوائيًا، وهو أمر لم يبرمج نظام السيارة على استيعابه مما جعلها تواصل طريقها.
يسمّي باحثو الذكاء الاصطناعي هذا الأمر “بالهشاشة”، علما بأن هذا العجز عن التكيف شائع في الأنظمة المستخدمة اليوم، مما يجعل القرارات المتعلقة بتقدير حجم مخاطر توظيف الذكاء الاصطناعي صعبةً بشكل خاص. ماذا لو كان مجرّد اختلاف بسيط في الزي الرسمي، مثل وجود بقع زيت أو تراب على القميص يحجب نمط التمويه العادي، ما يربك الكمبيوتر ويمنعه من التعرف على القوات الصديقة؟
يشوب الآلات عيبٌ آخر محتمل: خلال محاولتها إتمام المهمة بنجاح، قد تلجأ للغشّ دون رحمة. على مدى عقود، صمم باحثو الذكاء الاصطناعي الألعاب كأرض اختبار للخوارزميات ومقياسًا لذكائها المتزايد. توفر الألعاب، بقواعدها شديدة التنظيم وشروطها الخاضعة للرقابة، حاضنة آمنة تمكّن أجهزة الكمبيوتر من التعلّم.
لكن خلال إحدى التجارب سيئة السمعة، طُلب من نظام ذكاء اصطناعي، تم تعليمه كيفيّة لعب التتريس بواسطة الباحث توم مورفي في جامعة كارنيغي ميلون، ألا يخسر. وما إن أصبحت القطع تنزل بسرعة من أعلى الشاشة، وجدت الخوارزمية نفسها أمام هزيمة حتمية، فوجدت حلا ذكيًا: وهو إيقاف اللعبة بشكل مؤقت وتركها على هذه الحال، مما يمكّنها من تجنب الخسارة. قد لا تكون هذه اللامبالاة اللامحدودة تجاه النزاهة مهمّة في اللعبة ولكنها قد تسبّب كارثة أثناء الحرب.
يجعل الذكاء الاصطناعي الأسلحة تعمل بشكل أسرع، متجاوزة بذلك قدرة المشغلين البشر وردود فعلهم المتحجّرة
خلال السنوات الأخيرة، زاد الجدل حول ما إذا كان ينبغي استخدام الذكاء الاصطناعي لإحداث ضرر مميت، وذلك عقب مجموعة من الاستثمارات المقدّمة من طرف البنتاغون. في سنة 2020، طلبت وزارة الدفاع بموجب الميزانية غير المصنفة ما قيمته 927 مليون دولار لتطوير الذكاء الاصطناعي، بما في ذلك تطوير الأسلحة، بالإضافة إلى 841 مليون دولار من أجل سنة 2021. كما تخطط وكالة مشاريع البحوث المتطوّرة الدفاعية، وهي مرفق رئيسي للتقنيات العسكرية المتطوّرة، لإنفاق ملياري دولار على الذكاء الاصطناعي على مدى خمس سنوات تنتهي سنة 2023.
في كانون الأول/ ديسمبر، نجح سلاح الجو في استخدام الذكاء الاصطناعي لقيادة طائرة تجسس من طراز يو-2 لأول مرة. اقتصر الاختبار على تحكّم الذكاء الاصطناعي في نظام الملاحة والرادار بينما تحكّم طيار بشري بالطائرة، لكن ذلك شكّل فرقا كبيرا: فقد استُخدم الذكاء الاصطناعي على طائرة عمليات وإن كانت مجرّد طائرة مراقبة غير مسلحة.
كان الحافز وراء إجراء الاختبار حملة ويل روبر، وهو مسؤول دفاعي سابق كان يدير عمليات شراء الأسلحة للقوات الجوية خلال سنوات إدارة ترامب وأحد الداعمين الرئيسيين لمجال الذكاء الاصطناعي في البنتاغون. يعتقد روبر أنه يجب على المخططين العسكريين المضي قدما في اختبار الذكاء الاصطناعي، رغم وجود العديد من المعطيات المجهولة، وذلك لأن منافسي الولايات المتحدة يطورون قدراتهم بسرعة. ذكر روبر خلال مقابلة مع الصحفيين بعد فترة وجيزة من اختبار طائرة التجسس: “أنا أخشى عدم مواكبة التقدّم. ولا أخشى أن نفقد معاييرنا الأخلاقية”.
يجعل الذكاء الاصطناعي الأسلحة تعمل بشكل أسرع، متجاوزة بذلك قدرة المشغلين البشر وردود فعلهم المتحجّرة. أفاد روبر بأنه بسبب الطريقة التي تتسارع بها قدرات الذكاء الاصطناعي، فإن التخلف عن الركب يعني أن الولايات المتحدة قد لا تلحق بالتطوّرات أبدا، وهذا هو السبب وراء دعوته للتحرك بسرعة وتوظيف الذكاء الاصطناعي في ساحة القتال. وهو يرى أنه “ليس من المنطقي دراسة أي شيء في عصر الذكاء الاصطناعي. من الأفضل السماح للذكاء الاصطناعي بالشروع في العمل والتعلم، لأنه نظام حي ويتنفس ويشبه إلى حد كبير الإنسان، لكنّه فقط يتكوّن من السيليكون”.
في ظلّ تقدم التكنولوجيا، مازال الجيش يواجه السؤال الأخلاقي الأكبر: ما مقدار السيطرة التي يجب أن يمنحها القادة للآلات عندما يتعلق الأمر بقرار القتل في ساحة المعركة؟ في الواقع، إن الإجابة عن هذا السؤال ليست سهلة، إذ يمكن للآلات أن تتفاعل بسرعة أكبر من أي إنسان، دون أي تعب أو إرهاق ناجم عن خوض الحرب والذي قد يضعف حواسهم.
خدم كل من كوربيلا وبارسونز في أفغانستان والعراق وشاهدا كيف يكون البشر في ساحة الحرب غير قادرين على اتخاذ القرار السليم. فعندما يقتل أصدقاؤهم المقربون، يمكن للجنود أن يتخذوا قرارات خاطئة بشأن من وماذا يستهدفون وقد حصل ذلك بالفعل. ويقول كوربيلا وبارسونز إنه على النقيض من ذلك، لا تتأثّر الآلات بالعاطفة وتستطيع الحفاظ على تركيزها.
اللفتنانت جنرال جاك شاناهان، أول مدير لمركز الذكاء الاصطناعي المشترك في البنتاغون: “الجيش سيوظّف الذكاء الاصطناعي في أسلحته رغم النقاشات المتعلّقة بالجانب الأخلاقي: “سنفعل ذلك، سنحرص على ذلك، وسنتبع ما تمليه السياسة”.
إن الشخص المكلف بتوظيف الذكاء الاصطناعي في الجيش هو اللفتنانت جنرال جاك شاناهان، وهو طيار سابق كان يقود مقاتلة من طراز إف-15 وكان أول مدير لمركز الذكاء الاصطناعي المشترك في البنتاغون، الذي أنشئ في سنة 2018 ليكون بمثابة حلقة الوصل لجميع عمليات تطوير الذكاء الاصطناعي العسكري. كان شاناهان لا يزال يجمع فريقه الذي يتوسع بسرعة عندما أجريت معه مقابلة في مكتبه في أرلينغتون بفيرجينيا في أوائل سنة 2020، في اليوم الذي أعلن فيه أنه سيتقاعد في وقت لاحق من ذلك العام.
قال شاناهان إن فريقه بدأ للتو العمل على ما سيصبح لاحقا أول مشروع ذكاء اصطناعي له صلة مباشرة بعمليات القتل في ساحة المعركة. الهدف من هذا المشروع هو استخدام الذكاء الاصطناعي للمساعدة في تقصير المدّة التي تُستغرق لتوجيه الهجمة من خلال تبسيط عملية اختيار الأهداف. يتم ذلك، مثلا، من خلال إرسال إشارات فورية حول ما إذا كانت بعض الأماكن مثل المستشفيات أو المواقع الدينية موجودة ضمن مرمى النيران. ومن المتوقع استخدام هذه التقنيّة في القتال في سنة 2021.
أكد شاناهان أن المشروع جديد للغاية ولا يمكن مناقشة تفاصيله. وحتى لو لم يكن الأمر كذلك، ما كان ليصرّح بالكثير من المعلومات من أجل حماية تلك الأسرار من دول مثل الصين وروسيا التي تسعى بجدّ لتطوير الذكاء الاصطناعي. أخبرني شاناهان بأن الجيش سيوظّف الذكاء الاصطناعي في أسلحته رغم النقاشات المتعلّقة بالجانب الأخلاقي: “سنفعل ذلك، سنحرص على ذلك، وسنتبع ما تمليه السياسة”.
في سنة 2019، لخّص شاناهان ما ستبدو عليه حرب الذكاء الاصطناعي، خلال إلقائه كلمة في مؤتمر برعاية الحكومة، قائلا: “سنكون مصدومين من السرعة والفوضى والدموية والحركة التي سنشهدها في المعركة المستقبلية، حيث سيحصل كل هذا الدمار فقط في أجزاء من الثانية في بعض الأحيان”. وقد بدا هذا الكلام وكأنه تحذير وليس مجرّد تكهّنات.
يدرك شاناهان أن الناس قد يكونوا متشككين. ففي نيسان/ أبريل 2018، فوجئ هو وزملاؤه عندما وقّع حوالي أربعة آلاف موظف في غوغل على عريضة تطالب الشركة بالانسحاب من برنامج كان يديره يسمى “مشروع مايفن”، والذي استخدم الذكاء الاصطناعي لتحديد وتتبع الأهداف في الصور التي التقطتها الطائرات دون طيار والأقمار الصناعية.
في حزيران/ يونيو، وعدت غوغل بأنها لن تجدد عقدها معه ووعدت بعدم العمل على أي أنظمة أخرى يمكن استخدامها مباشرة في تطوير الأسلحة. تم تداول عرائض مماثلة في أمازون ومايكروسوفت، لكن لم تتراجع أي من الشركتين عن تعاملها مع البنتاغون. (يمتلك مؤسس أمازون جيف بيزوس صحيفة واشنطن بوست).
لم تكن هذه العرائض من باب الصدفة، حيث تعمل ويرهام وحملة وقف الروبوتات القاتلة بجد لتجنيد العاملين في مجال التكنولوجيا لمقاومة تطوير الذكاء الاصطناعي في مجال الأسلحة. تعكس هذه الجهود اختلافًا جوهريًا واحدا بين الذكاء الاصطناعي ومعظم التقنيات العسكرية الرئيسية الأخرى التي تم تطويرها في القرن الماضي: يقع العمل على جميع التطورات في مجال الذكاء الاصطناعي تقريبًا بالتعاون مع شركات التكنولوجيا التجارية، وليس مع مقاولي الدفاع التقليديين.
بدلا من انضمام الموظفين إلى صناع الأسلحة، فإنهم يعملون على مشاريع في وادي السيليكون تقوم على تحويل القطع إلى أسلحة. ولا تعتمد تلك الشركات التكنولوجية بشكل كامل على الجيش في العمل، على عكس شركات الدفاع، رغم أن أموال البنتاغون لا تزال مغرية.
على الرغم من الاحتجاجات التي نظمها موظفو غوغل كانت مزعجة بالنسبة لشاناهان، إلا أنه يدرك تمامًا اعتماد وزارة الدفاع على الشركات التجارية. ومهما كان الأمر صعبا، يؤكد شاناهان أن البنتاغون ينبغي أن يتحدث علنا عن كيفية استخدام الذكاء الاصطناعي. وإذا لم يتمكن مسؤولو الدفاع من إقناع العاملين في مجال التكنولوجيا من خلال قدر أكبر من الشفافية بالتسامح على الأقل مع البرامج العسكرية التي تستفيد من ابتكاراتهم، فسوف يفوت البنتاغون الفرص الثورية. وهو يقر: “لسنا معتادين على تلك المحادثة. لقد احتفظنا بالتقنيات في قبو البنتاغون لأنها كانت قدرات سرية خاصة بوزارة الدفاع. لكن لم يعد هذا هو الحال بعد الآن”.
في أعقاب هذا الجدل، طلب البنتاغون من مجلس الابتكار الدفاعي، وهو مجموعة استشارية من التقنيين والمهندسين المتعاونين مع الجيش، التحقق من استخدام الجيش للذكاء الاصطناعي والقضايا الأخلاقية المرتبطة به. توصلت المجموعة إلى قائمة من خمسة مبادئ رئيسية غير ملزمة لكيفية متابعة الجيش للذكاء الاصطناعي، مع التركيز على الاختبارات المكثفة والقدرة على إيقاف الأسلحة المستقلة – ولكن دون الحد مما يمكن للجيش السعي وراءه.
في حديثه خلال مؤتمر صحفي، أعلن شاناهان أن البنتاغون سيتبنى هذه المبادئ في أوائل سنة 2020، وأعرب عن عدم رغبته في التخلي عن أي شيء. وقال: “آخر شيء أردنا القيام به هو إلزام القسم بقول ما لا يمكنك فعله”.
صاروخ بريطاني من طراز “بريمستون”، في سنة 2015. تم تصديره دوليًا يتميز بقدرته على أن يتحكم فيه الطيار ويكون ذاتي التحكم أيضًا.
صيغت القواعد الوحيدة الخاصة بالأسلحة العسكرية ذاتية التشغيل قبل عقد من الزمن من قبل مسؤول متوسط المستوى في البنتاغون كان يحاول تخيل قدرات الكمبيوتر التي بدأت للتو تبدو معقولة. كان بول شار، جندي سابق بالجيش خدم في العراق وأفغانستان، يعمل في متجر في سنة 2010 عندما تم تكليفه بكتابة المبادئ التوجيهية لسياسة الوزارة لأسلحة الذكاء الاصطناعي.
كان البنتاغون في خضم المداولات بشأن طائرة مسيّرة جديدة من المفترض إطلاقها من حاملات الطائرات لتكون مجهزة في النهاية لحمل صواريخ فتاكة. أراد المهندسون المشاركون في تطوير الطائرة المسيّرة، والتي تعرف باسم “نورثروب غورمان إكس-47 بي”، التأكد من أن لديهم المجال لبناء وتطوير السلاح باستقلالية كبيرة ولم يرغبوا في إنشاء شيء يقرر المسؤولون لاحقًا أنه ذاتي التشغيل للغاية لاستخدامه في الميدان.
قال شار: “كان بإمكان الناس رؤية التوجه نحو المزيد من الأسلحة ذاتية التشغيل، وكانوا يسألون، “إلى أي مدى نحن على استعداد لدعم هذا التوجه؟ إذا كانت الطائرة بمفردها وفقدت الاتصال بها، فماذا عساها أن تفعل؟ هل تعود من حيث أتت، هل تهاجم أهدافًا محددة مسبقا؟ هل يمكنها مهاجمة أهداف الفرص الناشئة؟”.
أوضح شار أن السياسة التي ساعد في صياغتها، والتي صدرت في وقت قريب من تشكيل حملة وقف الروبوتات القاتلة في سنة 2012، كان الهدف منها التوضيح لمصممي الأسلحة أنه يمكنهم مواصلة عملهم. كان ابتكاره الرئيسي هو اشتراط مراجعة الأنظمة ذاتية التشغيل القادرة على القتل من قبل ثلاثة من كبار مسؤولي وزارة الدفاع، غير أن السياسة لم تحظر أي شيء. قال شار: “في نهاية المطاف، لم يقدم التوجيه جوابا. ولم يوضح ما يمكنك فعله أو ما يجب تجنبه في جميع الأوقات”.
تخلت البحرية في النهاية عن فكرة تسليح الطائرة المسيرة إكس-47 بي. ولم يعتبر أي سلاح آخر ذاتي التشغيل مصممًا للقتل بما يكفي ليخضع للمراجعة الخاصة التي اشترطتها سياسة شار، وذلك وفقًا لمسؤولين حاليين وسابقين مطلعين على المشروع. لكن مسؤولي البنتاغون يقولون إن هذه اللحظة باتت وشيكة.
لا تعتبر الولايات المتحدة الدولة الوحيدة التي تغامر بدخول هذا المجال. منذ حوالي عقدين من الزمن، صنعت بريطانيا صاروخًا يسمى “بريمستون” كان من المفترض أن يلاحق مركبات العدو التي اختارها من تلقاء نفسه بعد إطلاقه من مقاتلات تورنادو البريطانية. وكانت خوارزميات الكمبيوتر – وليس الطيارون – من يوجه تحركاته.
يجب أن يكون جميع القادة العسكريين، بموجب قواعد الحرب، قادرين على إظهار أنهم “يميزون” بين الأهداف العسكرية القانونية والمدنيين، وهو أمر يصعب القيام به إذا كان الصاروخ هو الذي يقرر هدفه وليس الإنسان.
لم يكن “بريمستون” قائما على تقنية الذكاء الاصطناعي بشكل كامل: فقد تمت كتابة خوارزمياته بواسطة أشخاص، في حين أن أسلحة الذكاء الاصطناعي ستعتمد على أجهزة الكمبيوتر ذات الشفرات التي تكتب بنفسها – وهي برمجة شاملة يكاد يكون من المستحيل مراجعتها والتحقق منها. مع ذلك، عندما كان الصاروخ جاهزًا للاستخدام، كان القادة البريطانيون – في خضم القتال في العراق – يواجهون ضغوطا شعبية قوية بشأن إمكانية وقوع خسائر في صفوف المدنيين ومخاوف بشأن القانون الدولي.
يجب أن يكون جميع القادة العسكريين، بموجب قواعد الحرب، قادرين على إظهار أنهم “يميزون” بين الأهداف العسكرية القانونية والمدنيين، وهو أمر يصعب القيام به إذا كان الصاروخ هو الذي يقرر هدفه وليس الإنسان. في النهاية، اختار قادة سلاح الجو الملكي عدم إطلاق الصاروخ في العراق، وبدلاً من ذلك أمضوا سنة في إعادة تصميمه لإضافة وضع يسمح للطيارين باختيار الأهداف.
مع ذلك، طبّق البريطانيون هذه التكنولوجيا في ليبيا، عندما أطلقت طائرتان مقاتلتان من طراز “تورنادو” في سنة 2011، 22 صاروخ بريمستون في وضع التشغيل الذاتي على قافلة مكونة من ثماني مركبات عسكرية ليبية كانت تقصف بلدة في وسط الصحراء. وشوهدت سبع سيارات من أصل ثماني مشتعلة بعد الهجوم، بينما يُفترض أن تكون السيارة الثامنة قد دُمرت بالكامل.
منذ ذلك الحين، صدّرت بريطانيا الصاروخ الذي يمكن للطيار التحكم به، إلى دول مثل المملكة العربية السعودية التي استخدمته في اليمن وفقًا لمسؤولين عسكريين بريطانيين. (لن تؤكد الشركة المصنعة لبريمستون من يمتلك هذه الصواريخ أو كيف يتم استخدامها). وتعمل الولايات المتحدة الآن على تطوير صاروخ مشابه، وفقًا لوثائق ميزانية وزارة الدفاع.
تطورت آراء شار على مدار السنوات العشر الماضية، ويعزى ذلك إلى أن أنظمة الأسلحة التي كانت فيما مضى مجرد أفكار أصبحت الآن قاب قوسين أو أدنى من أن تستخدم في ساحة المعركة. لا يزال شار لا يدعم فكرة فرض حظر شامل على أنظمة الأسلحة ذاتية التشغيل – وهو موقف يتوافق مع قواعد 2012 التي صاغها – لكنه تبنى مؤخرًا إمكانية فرض قيود على أسلحة الذكاء الاصطناعي التي تستهدف المدنيين، على عكس الدبابات والطائرات والسفن.
تبنّى بعض الضباط المستقبليين الذين يعملون مع الدبابات الروبوتية في ويست بوينت وجهة نظر حذرة تجاه الأسلحة ذاتية التشغيل. بعد تكرار المحاولة والخطأ، حققوا تقدما جيدا في برمجة الدبابات لتفجير بالونات العدو بشكل أكثر كفاءة، لكن العديد منهم ما زالوا غير مقتنعين بأن الأسلحة الموجهة بالذكاء الاصطناعي جاهزة للاستعمال في الميدان.
يرى كاميرون طومسون، طالب من ليتلتون في ولاية كولورادو أن “هذا الأمر لا يزال يمثل مسؤولية في نهاية المطاف”، مشيرًا إلى أن القادة سيُحاسبون على ما تفعله الآلات. وأضاف: “نحن ندرك أن وظيفتها فعالة جدا وأنه يمكننا برمجتها جيدا. ومع ذلك، لا أعتقد أن الكثيرين يريدون المخاطرة الآن بتطبيقها ومشاهدة نتائجها على أرض الواقع”.
المصدر: مجلة واشنطن بوست