ترجمة وتحرير: نون بوست
بعد أسبوعين من غزو روسيا لأوكرانيا الذي اندلع في شباط/فبراير الماضي؛ قدم ألكسندر كارب، المدير التنفيذي لشركة تحليل البيانات “بالانتير”، عرضه على القادة الأوروبيين، ونظرًا لأن الحرب كانت على الأبواب؛ فقد جادل كارب بأنه على الأوروبيين تحديث ترساناتهم بمساعدة وادي السيليكون.
كتب كارب أنه لكي “تحافظ أوروبا على قوتها لهزيمة تهديد الاحتلال الأجنبي، وينبغي على الدول أن تبني علاقة بين شركات التكنولوجيا ومؤسسات الدولة، وبين الشركات التخريبية التي تسعى إلى إزاحة قبضة المقاولين القدماء ووزارات الحكومة الفيدرالية الممولة “.
استجابت الكثير من الجيوش لنداء كارب؛ فقد أعلن حلف الناتو في 30 حزيران/ يونيو الماضي أنه بصدد إنشاء صندوق خاص بالابتكار بقيمة مليار دولار؛ يستثمر في الشركات الناشئة المبتدئة وصناديق رأس المال الاستثماري لتطوير تقنيات “ذات أهمية” مثل الذكاء الاصطناعي ومعالجة البيانات الضخمة والأتمتة.
ومنذ بدء الحرب؛ أطلقت المملكة المتحدة إستراتيجية ذكاء اصطناعي جديدة خاصة بالدفاع، وخصص الألمان أقل من نصف مليار دولار للبحوث والذكاء الاصطناعي ناهيك عن ضخ دعم نقدي بقيمة 100 مليار دولار للجيش.
توطدت العلاقة بين وادي السيليكون وجيوش العالم أكثر من أي وقت مضى، ولا يتعلق الأمر فقط بالشركات الكبيرة، فقد بدأت الشركات الناشئة بالاهتمام بهذا المجال
في هذا السياق؛ يقول كينيث باين، الذي يقود أبحاث الدراسات الدفاعية في كلية كينجز لندن ومؤلف كتاب” “أنا واربوت، فجر صراع الذكاء الاصطناعي” أن “الحرب عامل محفز للتغيير”.
وغذت الحرب في أوكرانيا الحاجة الملحة إلى تنظيم حملة تحث على استخدام الأجهزة القائمة على الذكاء الاصطناعي في ساحة المعركة، وتعد الشركات المستفيدة أكثر هي الشركات الناشئة مثل بالانتير، التي تأمل في جني المزيد من الأرباح بينما تتسابق الجيوش لتحديث ترساناتها بأحدث التقنيات، لكن المخاوف الأخلاقية طويلة الأمد بشأن استخدام الذكاء الاصطناعي في الحروب أصبحت أكثر إلحاحًا؛ حيث أصبحت التكنولوجيا أكثر تقدمًا، في حين أن احتمال وضع قيود ولوائح تحكم استخدامها باتت بعيدة المنال أكثر من أي وقت مضى.
لم تكن العلاقة بين صناعة التكنولوجيا والجيش يومًا ودية. في سنة 2018، بعد احتجاجات الموظفين، أوقفت شركة غوغل تعاونها مع مشروع البنتاغون مافين، في محاولة لبناء أنظمة التعرف على الصور لتحسين دقة ضربات الطائرات دون طيار، وتسببت هذه المسألة في إثارة جدل ساخن حول حقوق الإنسان وأخلاقيات تطوير الذكاء الاصطناعي للأسلحة المستقلة.
كما قاد باحثون بارزون في مجال الذكاء الاصطناعي مثل يوشوا بنجيو، الحائز على جائزة تورينج ومؤسسي “ديب مايند” الثلاثة (ديمس هاسابيس، مصطفى سليمان، وشين ليج)، إلى التعهد بعدم ابتكار أسلحة قائمة على الذكاء الاصطناعي قاتلة.
ولكن بعد أربع سنوات، توطدت العلاقة بين وادي السيليكون وجيوش العالم أكثر من أي وقت مضى، ولا يتعلق الأمر فقط بالشركات الكبيرة، فقد بدأت الشركات الناشئة بالاهتمام بهذا المجال أخيرًا، حسب يل باجراكتاري، الذي كان سابقًا المدير التنفيذي للجنة الأمن القومي الأمريكية المعنية بالذكاء الاصطناعي ويعمل الآن في مشروع الدراسات التنافسية الخاصة، وهي مجموعة الضغط من أجل المزيد من تبني الذكاء الاصطناعي في جميع أنحاء الولايات المتحدة.
لماذا الذكاء الاصطناعي؟
تقدم الشركات التي تبيع الأجهزة العسكرية القائمة على الذكاء الاصطناعي مطالبات موسعة لاستخدامات تقنيتها، ويشيرون إلى أنه يمكن أن يكون لها استخدامات عادية ومميتة في ساحات الحرب، بدءًا من مراجعة السير الذاتية مرورًا بمعالجة البيانات من الأقمار الصناعية وصولًا إلى التعرف على الأنماط في البيانات لمساعدة الجنود على اتخاذ قرارات أسرع في ساحة المعركة، ويمكن أن يساعد برنامج التعرف على الصور في تحديد الأهداف، كما يمكن استخدام الطائرات دون طيار ذاتية القيادة للمراقبة أو الهجمات البرية أو الجوية أو البحرية أو لمساعدة الجنود على توصيل الإمدادات بأمان أكبر مما هو ممكن عن طريق البر.
حسب باين؛ لا تزال هذه التقنيات في بداياتها في ساحات المعركة، ناهيك عن أن الجيوش في مرحلة التجربة ولم تحقق أي نجاحات تذكر، وهناك أمثلة لا حصر لها على ميل شركات الذكاء الاصطناعي إلى تقديم وعود كبيرة حول التقنيات التي يتبين لاحقًا أنها لا تفي بالوعود المعلن عنها، وربما تكون مناطق القتال من بين أكثر المجالات تحديًا من الناحية التقنية لنشر الذكاء الاصطناعي بسبب الافتقار إلى بيانات التدريب الضرورية. في هذا السياق؛ يوضح آرثر هولاند ميشيل، الخبير في الطائرات بدون طيار وتقنيات المراقبة الأخرى، خلال ورقة بحثية لمعهد الأمم المتحدة لبحوث نزع السلاح، إن هذا قد يتسبب في فشل الأنظمة الذاتية التحكم “بطريقة معقدة وغير متوقعة”.
في المقابل؛ تمضي العديد من الجيوش قدمًا في هذا الاتجاه، ففي بيان صحفي غامض الصياغة صدر في سنة 2021، أعلن الجيش البريطاني بفخر أنه استخدم الذكاء الاصطناعي في عملية عسكرية لأول مرة، لتقديم معلومات عن البيئة والتضاريس المحيطة، وتعمل الولايات المتحدة مع الشركات الناشئة لتطوير مركبات عسكرية ذاتية التحكم. في المستقبل؛ يمكن أن تكون أسراب المئات أو حتى الآلاف من الطائرات بدون طيار ذاتية التحكم التي يطورها الجيشان الأمريكي والبريطاني أسلحة قوية وقاتلة.
هذا ما أثار قلق الكثير من الخبراء، ففي هذا الشأن؛ تقول ميريديث ويتاكر، كبيرة مستشاري الذكاء الاصطناعي في لجنة التجارة الفيدرالية ومديرة هيئة التدريس في معهد الذكاء الاصطناعي الآن، إن هذا الزخم باتجاه الذكاء الاصطناعي يهدف إلى إثراء شركات التكنولوجيا أكثر من تحسين العمليات العسكرية.
وفي مقال لمجلة بروسبيكت؛ شاركت في كتابته لوسي سوشمان، أستاذة علم الاجتماع في جامعة لانكستر، جادلت بأن أنصار استخدام الذكاء الاصطناعي في ساحات الحرب تغذي خطاب الحرب الباردة ويحاولون إنشاء سرد على أن عمالقة التكنولوجيا يشكلون “بنية تحتية وطنية مهمة” للانفصال على التقنيات القديمة أو تنظيم هذا القطاع. وهم يحذرون من أن تبني الجيش للذكاء الاصطناعي يعد مسألة حتمية وليس كخيار نشط يتضمن تعقيدات أخلاقية وينطوي على تنازلات.
صناديق حرب الذكاء الاصطناعي
مع انحسار الجدل حول مبادرة مافين، تعالت الأصوات التي تدعو إلى إقحام المزيد من أجهزة الذكاء الاصطناعي في صناعة الدفاع خلال السنتين الماضيتين.
كان إريك شميدت؛ المدير التنفيذي السابق لشركة غوغل، من بين أعلى الأصوات، والذي ترأس لجنة الأمن القومي المعنية بالذكاء الاصطناعي ودعا الولايات المتحدة إلى اتخاذ نهج أكثر جرأة لاعتماد الذكاء الاصطناعي العسكري.
في تقرير صدر السنة الماضية؛ حدد الخطوات التي يجب أن تتخذها الولايات المتحدة لمواكبة ركب الذكاء الاصطناعي بحلول سنة 2025. كما دعت لجنة الأمن القومي المعنية بالذكاء الاصطناعي الجيش الأمريكي إلى استثمار 8 مليارات دولار سنويًا في هذه التقنيات أو أنها ستخاطر بالتخلف عن الصين.
تعزيز الطلب على الذكاء الاصطناعي شيء وإقناع الجيوش بتبنيه شيء آخر تمامًا
ووفقًا لتقرير صادر عن مركز جورج تاون للأمن والتقنيات الناشئة؛ من المحتمل أن ينفق الجيش الصيني ما لا يقل عن 1.6 مليار دولار سنويًا على الذكاء الاصطناعي، وفي الولايات المتحدة هناك بالفعل جهود كبيرة مبذولة للوصول إلى التكافؤ، كما تقول لورين كان وهي زميلة باحثة في مجلس العلاقات الخارجية، فقد طلبت وزارة الدفاع الأمريكية 874 مليون دولار لاستثمارها في الذكاء الاصطناعي لسنة 2022، على الرغم من أن هذا الرقم لا يعكس إجمالي استثمارات الوزارة في هذا المجال، كما قالت في تقرير صدر في آذار / مارس 2022.
ويقول هيكو بورشيرت، المدير المشارك لمرصد الذكاء الاصطناعي الدفاعي في جامعة هيلموت شميدت في هامبورغ بألمانيا، إن الجيش الأمريكي ليس وحده المقتنع بالحاجة، بل الدول الأوروبية التي تميل إلى أن تكون أكثر حذراً بشأن تبني تقنيات جديدة تنفق أيضًا المزيد من الأموال على الذكاء الاصطناعي.
وعرّف الفرنسيون والبريطانيون الذكاء الاصطناعي باعتباره تقنية دفاعية رئيسية، وخصصت المفوضية الأوروبية، الجهاز التنفيذي للاتحاد الأوروبي، مليار دولار لتطوير تقنيات دفاعية جديدة.
تحديات جيدة وأخرى سيئة
تعزيز الطلب على الذكاء الاصطناعي شيء وإقناع الجيوش بتبنيه شيء آخر تمامًا؛ حيث يقول أرنو جيران، الرئيس التنفيذي لشركة بريليجن ، وهي شركة فرنسية ناشئة تبيع أنظمة المراقبة تعمل بالذكاء الاصطناعي، إن الكثير من البلدان تثير رواية الذكاء الاصطناعي، لكنها تكافح من أجل الانتقال من المفهوم إلى التطبيق، ويرجع ذلك جزئيًا إلى أن الصناعات الدفاعية في معظم البلدان لا تزال تهيمن عليها عادة مجموعة من كبار الشركات المتعاقدة الذين يميلون إلى امتلاك خبرة في المعدات العسكرية أكثر من برامج الذكاء الاصطناعي.
ويرجع ذلك أيضًا إلى أن عمليات التدقيق العسكري التقليدية تتحرك ببطء مقارنة بالسرعة الفائقة التي اعتدنا أن نراها في تطوير الذكاء الاصطناعي؛ حيث يمكن أن تمتد العقود العسكرية لعقود، ولكن في مرحلة البداية المتسارعة، يكون أمام الشركات سنة واحدة فقط أو نحو ذلك للانطلاق.
وعبّرت الشركات الناشئة وأصحاب رؤوس الأموال الذين غامروا بأموالهم عن إحباطهم من أن العملية تسير ببطء شديد. تقول كاثرين بويل، الشريك العام في شركة رأس المال الاستثماري أندريسن هورويتز، إن الخطر يتمثل في أن المهندسين الموهوبين سيغادرون بسبب الإحباط، وسيتجهون إلى وظائف في فيس بوك وجوجل وستفلس الشركات الناشئة في انتظار عقود الدفاع.
ويقول مارك وارنر، مؤسس “فاكلتي أي آي”، وهي شركة لتحليل البيانات تعمل مع الجيش البريطاني: “إن بعض هذه التحديات بالغة الأهمية لا سيما في هذا القطاع حيث تكون المخاوف الأمنية حقيقية للغاية، لكن بعض التحديات ليست كذلك… وقد كرّست في بعض النواحي مكانة الموظفين”.
يثير العصر الجديد للذكاء الاصطناعي العسكري عددًا كبيرًا من الأسئلة الأخلاقية الصعبة التي ليس لدينا إجابات عليها بعد
ويقول نجور لونج، محلل أبحاث درس اتجاهات الاستثمار في الذكاء الاصطناعي في مركز جورج تاون للأمن والتقنيات الناشئة إن شركات الذكاء الاصطناعي ذات الطموحات العسكرية يجب أن “تستمر في العمل لفترة طويلة”، فيما تقول لورين كان أيضاً إن “الجيوش في مأزق؛ فإما أن تنطلق بسرعة كبيرة وتخاطر بنشر أنظمة خطيرة ومعطلة أو تتحرك ببطء كثير وتفوّت عليها الفرصة في التقدم التكنولوجي”؛ حيث تريد الولايات المتحدة أن تنطلق بشكل أسرع وقد استعانت وزارة الدفاع بـ كريج مارتيل، الرئيس السابق لقسم الذكاء الاصطناعي في شركة ليفت لخدمات النقل، من أجل المساعدة.
تولى مارتيل رئاسة مكتب الذكاء الاصطناعي الرقمي الجديد في البنتاغون في حزيران / يونيو 2022، والذي يهدف إلى تنسيق جهود الذكاء الاصطناعي للجيش الأمريكي. وقال لـ بلومبرغ إن مهمته هي تغيير ثقافة القسم وتعزيز استخدام الجيش للذكاء الاصطناعي على الرغم من “الجمود البيروقراطي”.
ربما تبدو مهمته سهلة جدًّا؛ حيث بدأت شركات الذكاء الاصطناعي بالفعل في اقتناص عقود عسكرية مربحة. ففي شباط / فبراير الماضي، فازت شركة “أندوريل”، وهي شركة ناشئة عمرها خمس سنوات تعمل على تطوير أنظمة دفاع مستقلة مثل الطائرات بدون طيار المتطورة تحت الماء، بعقد دفاعي قيمته مليار دولار مع الولايات المتحدة. وفي كانون الثاني / يناير، فازت شركة “سكيل أي آي“، وهي شركة ناشئة تقدم خدمات تصنيف البيانات للذكاء الاصطناعي، بعقد قيمته 250 مليون دولار مع وزارة الدفاع الأمريكية.
احذر من الضجة المثيرة
على الرغم من المسيرة الثابتة للذكاء الاصطناعي في ميدان المعركة، فإن المخاوف الأخلاقية التي دفعت الاحتجاجات ضد “مشروع مافين” لم تختف.
كانت هناك بعض الجهود لتهدئة تلك المخاوف وإدراكًا منها أن لديها مشكلة ثقة، فقد أصدرت وزارة الدفاع الأمريكية إرشادات حول “الذكاء الاصطناعي المسؤول” لمطوري الذكاء الاصطناعي، ولديها إرشادات أخلاقية خاصة بها لاستخدام الذكاء الاصطناعي ويملك حلف الناتو إستراتيجية ذكاء اصطناعي تحدد المبادئ التوجيهية الأخلاقية الطوعية للدول الأعضاء فيها.
تدعو كل هذه المبادئ التوجيهية الجيوش إلى استخدام الذكاء الاصطناعي بطريقة قانونية ومسؤولة وموثوقة ويمكن تتبعها وتسعى إلى التخفيف من التحيزات المضمنة في الخوارزميات.
وأحد مفاهيمهم الرئيسية هو أن البشر يجب أن يحتفظوا دائمًا بالسيطرة على أنظمة الذكاء الاصطناعي. لكن مع تطور التكنولوجيا، لن يكون ذلك ممكنًا حقًا كما يوضح باين الذي يقول: “إن الهدف الأساسي من [النظام] المستقل هو السماح له باتخاذ قرار أسرع وأكثر دقة وعلى نطاق واسع أكثر مما يمكن للإنسان القيام به، فأنت فعليًّا تعيق نفسك إذا قلت “لا، سنقوم بالاستعانة بمحامي بشأن كل قرار سنتخذه”.
ومع ذلك؛ يقول النقاد إن هناك حاجة إلى قواعد أكثر صرامة، وهناك حملة عالمية تسمى “أوقفوا الروبوتات القاتلة” تسعى إلى حظر الأسلحة الفتاكة ذاتية التشغيل مثل أسراب الطائرات بدون طيار، ويقول النشطاء والمسؤولون البارزون مثل رئيس الأمم المتحدة أنطونيو غوتيريس وحكومات مثل نيوزيلندا إن الأسلحة ذاتية التشغيل غير أخلاقية أبداً لأنها تمنح الآلات السيطرة على القرارات التي تتعلق بالحياة والموت ويمكن أن تلحق الضرر بشكل مفرط بالمجتمعات المهمشة من خلال التحيزات داخل الخوارزميات.
على سبيل المثال؛ يمكن أن تصبح أسراب الآلاف من الطائرات بدون طيار أسلحة دمار شامل، وسيكون تقييد هذه التقنيات مهمة صعبة لأن فكرة حظرها على مستوى العالم واجهت معارضة من كبار المنفقين العسكريين مثل الولايات المتحدة وفرنسا والمملكة المتحدة.
في نهاية المطاف، يثير العصر الجديد للذكاء الاصطناعي العسكري عددًا كبيرًا من الأسئلة الأخلاقية الصعبة التي ليس لدينا إجابات عليها بعد؛ حيث تقول باين “إن أحد هذه الأسئلة هو كيف نريد أن تكون القوات المسلحة تتمتع بتحكم ذاتي في المقام الأول. فمن ناحية؛ قد تقلل أنظمة الذكاء الاصطناعي من الإصابات من خلال جعل الحرب أكثر توجيهًا، ولكن من ناحية أخرى، “تقوم هذه الأنظمة بشكل فعال بإنشاء قوة من الروبوتات المرتزقة للقتال نيابة عنك وتبقي مجتمعك بعيدًا عن آثار العنف”.
المصدر: إم آي تي تيكنولوجي ريفيو