ترجمة وتحرير: نون بوست
استخدم الجيش الإسرائيلي “قائمة قتل” تعتمد على الذكاء الاصطناعي لاختيار أكثر من 30 ألف هدف في غزة بأقل تدخل بشري، مما أدى إلى سقوط ضحايا من المدنيين في القطاع الذي مزقته الحرب، وذلك وفقًا لتحقيق جديد مثير أجرته موقع +972.
وتجاهل أفراد جيش الدفاع الإسرائيلي، خاصة في الأيام الأولى من حرب غزة، المعدل الإيجابي الكاذب البالغ 10 بالمئة للذكاء الاصطناعي واستهدفوا عمدًا المسلحين المزعومين في منازلهم باستخدام “قنابل غبية” غير موجهة على الرغم من زيادة احتمال إلحاق الأذى بالمدنيين، وذلك وفقًا لمصادر الجيش الإسرائيلي التي تحدثت مع موقع +972.
ويسلط التحقيق الضوء على الطرق التي لا تعد ولا تحصى التي أدت من خلالها تكنولوجيا الذكاء الاصطناعي المتطورة، إلى جانب قواعد الاشتباك المتساهلة من قادة الجيش الإسرائيلي على الأرض، إلى زيادة معدلات مذهلة من الضرر الذي يلحق بالمدنيين في غزة. وقد لقي ما لا يقل عن 33 ألف فلسطيني حتفهم بسبب الحملة الإسرائيلية، التي أعقبت هجوم حماس الذي أسفر عن مقتل 1200 إسرائيلي في تشرين الأول/ أكتوبر الماضي.
ويقال إن برنامج الاستهداف القائم على الذكاء الاصطناعي، والمعروف باسم “لافندر”، يعتمد على شبكات مراقبة مترامية الأطراف ويحدد درجة من 1 إلى 100 لكل سكان غزة الذين يقدرون احتمال أن يكونوا من مقاتلي حماس. ثم يقوم الجنود بإدخال هذه المعلومات في برنامج يعرف باسم “أين والدك”، والذي يستخدم الذكاء الاصطناعي للتحذير عند عودة مسلح مزعوم إلى منزلهم.
وكشفت تقارير سابقة من مجلة +972 عن وجود نظام ذكاء اصطناعي مماثل لاستهداف المنازل التي يستخدمها المسلحون، يسمى “الإنجيل”. وفي كلتا الحالتين، قال الجيش الإسرائيلي إن مجلة +972 بالغت في دور وتأثير هذه الأدوات عالية التقنية.
وقالت بريانا روزين، زميلة بارزة في منتدى “جاست سيكيوريتي” وجامعة أكسفورد، والتي عملت سابقًا في مجلس الأمن القومي خلال إدارة أوباما إن “سيناريو يوم القيامة للخوارزميات القاتلة يتكشف بالفعل في غزة”.
وتحدث موقع “ريسبونسيبل ستيت كرافت” مع روزين للإطلاع على آخر ما تم الكشف عنه حول استخدام إسرائيل للذكاء الاصطناعي في غزة، وكيف يغير الذكاء الاصطناعي الحرب، وما يجب على صناع القرار في الولايات المتحدة فعله لتنظيم التكنولوجيا العسكرية. وقد تم تحرير المحادثة التالية من أجل الطول والوضوح.
ر.س: ماذا يخبرنا هذا التقرير الجديد من مجلة +972 عن كيفية استخدام إسرائيل للذكاء الاصطناعي في غزة؟
روزين: أول شيء أريد التأكيد عليه هو أن الأمر لا يقتصر على مجلة +972 فقط. لقد علق الجيش الإسرائيلي نفسه بالفعل على هذه الأنظمة أيضًا. وادعى الكثير من الناس أن التقرير يبالغ في بعض الادعاءات حول أنظمة الذكاء الاصطناعي، لكن إسرائيل نفسها أدلت بعدد من التعليقات التي تدعم بعض هذه الحقائق. ويؤكد التقرير الاتجاه الذي شهدناه منذ كانون الأول/ ديسمبر مع استخدام إسرائيل للذكاء الاصطناعي في غزة، وهو أن الذكاء الاصطناعي يزيد من وتيرة الاستهداف في الحرب ويوسع نطاق الحرب.
وكما اعترف الجيش الإسرائيلي نفسه، فإنه يستخدم الذكاء الاصطناعي لتسريع عملية الاستهداف، والحقائق تثبت ذلك. ففي الشهرين الأولين من الصراع، هاجمت إسرائيل حوالي 25 ألف هدف – أي أكثر من أربعة أضعاف ما هاجمته في الحروب السابقة في غزة. وهم يحققون أهدافًا أكثر من أي وقت مضى. وفي الوقت نفسه الذي تتسارع فيه وتيرة الاستهداف، يعمل الذكاء الاصطناعي أيضًا على توسيع نطاق الحرب، أو مجموعة الأهداف المحتملة التي يتم اتخاذ إجراءات للقضاء عليها. إنهم يستهدفون عددًا أكبر من العملاء المبتدئين أكثر من أي وقت مضى. وفي الحملات السابقة، كانت إسرائيل تنفذ ضرباتها المقاتلين المعروفين أو الأهداف العسكرية المشروعة. لكن هذا التقرير الأخير يُظهر أن هذا لم يعد عائقًا أمام القتل بعد الآن.
ويعمل الذكاء الاصطناعي، على حد تعبير إسرائيل، كمضاعف للقوة، مما يعني أنه يزيل قيود الموارد التي كانت في الماضي تمنع الجيش الإسرائيلي من تحديد أهداف كافية. أما الآن، فهم قادرون على استهداف أهداف أقل أهمية بكثير مع ارتباطات ضعيفة أو معدومة على الإطلاق بحماس، على الرغم من أنهم، في العادة، لن يلاحقوا تلك الأهداف بسبب الحد الأدنى من تأثير موتهم على الأهداف العسكرية.
باختصار، يعمل الذكاء الاصطناعي على زيادة وتيرة العمليات وتوسيع مجموعة الأهداف، وهو ما يجعل التحقق من الأهداف وغير ذلك من الالتزامات الاحترازية المطلوبة بموجب القانون الدولي أكثر صعوبة. كل هذا يزيد من خطر التعرف على المدنيين بشكل خاطئ واستهدافهم عن طريق الخطأ، مما يساهم في إلحاق الضرر الضخم بالمدنيين الذي شهدناه حتى الآن.
ر.س: كيف يرتبط هذا بفكرة وجود إنسان “في حلقة” القرارات التي تعتمد على الذكاء الاصطناعي؟
روزن: هذا ما يثير القلق. لقد ركز النقاش حول الذكاء الاصطناعي العسكري لفترة طويلة على السؤال الخاطئ. لقد ركزت على حظر أنظمة الأسلحة الفتاكة المستقلة، أو “الروبوتات القاتلة”، دون الاعتراف بأن الذكاء الاصطناعي أصبح بالفعل سمة منتشرة في الحرب. وتقوم إسرائيل ودول أخرى، بما في ذلك الولايات المتحدة، بالفعل بدمج الذكاء الاصطناعي في العمليات العسكرية. إنهم يقولون إنهم يفعلون ذلك بطريقة مسؤولة مع وجود البشر “في الحلقة” بشكل كامل.
لكن الخوف الذي يراودني، والذي أعتقد أننا نشهده هنا في غزة، هو أنه حتى مع وجود إنسان كامل في الحلقة، هناك ضرر كبير على المدنيين لأن المراجعات البشرية لقرارات الآلة هي في الأساس روتينية.
وفي هذا التقرير الذي تم إصداره اليوم، هناك ادعاء بأن هناك تحققًا بشريًا من المخرجات التي تولدها أنظمة الذكاء الاصطناعي ولكن تم إجراء التحقق البشري في 20 ثانية فقط، وهي فترة كافية لمعرفة ما إذا كان الهدف ذكرًا أم أنثى قبل السماح بالتفجيرات.
وبغض النظر عما إذا كان هذا الادعاء بالتحديد قد تم إثباته بالفعل، فقد كانت هناك العديد من الدراسات الأكاديمية حول خطر تحيز الأتمتة مع الذكاء الاصطناعي، وهو ما أعتقد أنه يلعب دورًا واضحًا هنا. نظرًا لأن الآلة ذكية جدًا ولديها كل تدفقات البيانات وتدفقات الذكاء التي يتم تغذيتها بها، فهناك خطر ألا يشكك البشر بشكل كافٍ في مخرجاتها. ويعني خطر تحيز الأتمتة هذا أنه حتى لو وافق البشر على الأهداف، فقد يكونون ببساطة موافقين على قرار استخدام القوة بدلاً من النظر بدقة في البيانات التي أنتجتها الآلة والعودة إلى الأهداف وفحصها بعناية فائقة. وهذا لا يتم القيام به، وقد لا يكون ممكنًا نظرًا للمشاكل المتعلقة بقابلية الشرح والتتبع بالنسبة للبشر لفهم كيفية قيام أنظمة الذكاء الاصطناعي بتوليد هذه المخرجات.
وهذا أحد الأسئلة التي طرحتها بالمناسبة في مقالتي في “جاست سكيوريتي ” في كانون الأول/ ديسمبر. ويتعين على صناع القرار والجمهور الضغط على إسرائيل بشأن هذا السؤال: كيف تبدو عملية المراجعة البشرية في واقع الأمر بالنسبة لهذه العمليات؟ هل هذه مجرد موافقة مبدئية على قرار استخدام القوة، أم أن هناك مراجعة جدية؟
ر.س: في هذه الحالة، يبدو أن تأثير الذكاء الاصطناعي قد تضخم بسبب استخدام الجيش الإسرائيلي لقواعد اشتباك فضفاضة. هل يمكنك أن تخبرينا المزيد عن العلاقة بين التكنولوجيا الناشئة وقرارات السياسة العملية حول كيفية استخدامها؟
روزين: هنا تكمن المشكلة الأخرى. أولاً وقبل كل شيء، هناك مشكلة تفسير إسرائيل للقانون الدولي، والذي يعتبر في بعض النواحي أكثر تساهلاً من الطريقة التي تفسر بها دول أخرى المبادئ الأساسية مثل التناسب. علاوة على ذلك، من المحتم أن تكون هناك أخطاء في أنظمة الذكاء الاصطناعي، مما يساهم في إلحاق الضرر بالمدنيين.
على سبيل المثال، يزعم هذا التقرير الأخير أن نظام لافندر كان خاطئًا بنسبة 10 بالمئة من الحالات. في الواقع، قد يكون هامش الخطأ هذا أكبر بكثير اعتمادًا على كيفية تصنيف إسرائيل للأفراد على أنهم من مقاتلي حماس.
يتم تدريب أنظمة الذكاء الاصطناعي على البيانات، وقد حددت إسرائيل خصائص معينة للأشخاص الذين تدعي أنهم نشطاء من حماس أو الجهاد الإسلامي الفلسطيني، ثم يقومون بإدخال تلك البيانات في الجهاز. ولكن ماذا لو كانت السمات التي حددوها واسعة للغاية – مثل حمل سلاح، أو التواجد في مجموعة واتساب مع شخص مرتبط بحماس، أو حتى مجرد التنقل من مكان إلى آخر كثيرًا، وهو ما يفعله الجميع بالطبع الآن لأنه بلد اللاجئين بأكمله. إذا تم إدخال هذه الخصائص في أنظمة الذكاء الاصطناعي لتحديد هوية المسلحين، فسيكون هذا مصدر قلق كبير لأن النظام سيأخذ تلك البيانات ويخطئ في التعرف على المدنيين في جزء كبير من الوقت.
ويمكن لإسرائيل أن تقول إنها تتبع القانون الدولي وأن هناك مراجعة بشرية لكل هذه القرارات، وكل ذلك يمكن أن يكون صحيحا. ولكن مرة أخرى، هذا هو تفسير إسرائيل للقانون الدولي. وهي الطريقة التي يحددون بها من يعتبر المقاتل في هذه الحرب وكيف يتم إدخال تلك البيانات في أنظمة الذكاء الاصطناعي. وكل هذا يتضاعف بطريقة يمكن أن تسبب ضررًا جسيمًا حقًا.
أريد أيضًا أن أشير إلى أن جميع المشاكل الموثقة جيدًا المتعلقة بالذكاء الاصطناعي في السياق المحلي – بدءًا من التحيزات الأساسية في الخوارزميات وصولا إلى مشكلة الهلوسة – ستستمر بالتأكيد في الحرب، وسوف تتفاقم بسبب وتيرة صنع القرار.
لن تتم مراجعة أي من هذا بطريقة حذرة للغاية. على سبيل المثال، نعلم أن إسرائيل لديها نظام مراقبة ضخم في قطاع غزة وأن كل هذه البيانات يتم إدخالها في أنظمة الذكاء الاصطناعي للمساهمة في مخرجات الاستهداف هذه. وأي تحيزات أساسية في تلك الأنظمة سوف تغذي الأخطاء وتتفاقم في مخرجات الاستهداف النهائية. وإذا كانت المراجعة البشرية روتينية، فإن النتيجة ستكون ضررا كبيرا على المدنيين، وهو ما شهدناه.
ر.س: الولايات المتحدة مهتمة بالذكاء الاصطناعي في العديد من التطبيقات العسكرية، بما في ذلك الأسراب الآلية من الطائرات المسيرة الفتاكة. ماذا تخبرنا تجربة إسرائيل عن الكيفية التي ينبغي لصناع القرار الأميركيين أن يتعاملوا بها مع هذه التكنولوجيا؟
روزن: يخبرنا هذا أن صناع القرار في الولايات المتحدة يجب أن يكونوا حذرين للغاية بشأن استخدام الذكاء الاصطناعي في كل من العمليات الاستخباراتية والعسكرية. لقد أصدر البيت الأبيض ووزارة الدفاع ووكالات أخرى عددًا من البيانات حول الذكاء الاصطناعي المسؤول، خاصة في السياق العسكري. لكن كل هذه الأمور كانت على مستوى المبادئ إلى حد كبير.
ويعتمد كل شيء على كيفية تفعيل هذه المبادئ العامة للاستخدام المسؤول للذكاء الاصطناعي العسكري عمليًا، وبالطبع، لم تكن لدينا حالة حتى الآن حيث رأينا الولايات المتحدة بطريقة عامة تعتمد على هذه الأدوات في صراعاتها. لكن هذا سيأتي بالتأكيد، ويجب على الولايات المتحدة استغلال هذا الوقت الآن ليس فقط لتعلم جميع الدروس المستفادة مما يحدث في غزة، ولكن لتكون استباقية للغاية في تفعيل تلك المبادئ العامة للاستخدام المسؤول للذكاء الاصطناعي العسكري، ونشرهم اجتماعيًا بين الدول الأخرى، نحن نقود العالم حقًا في التوقيع على هذه المبادئ الخاصة بالذكاء الاصطناعي العسكري. لقد فعلوا ذلك إلى حد ما، لكن التقدم كان بطيئا للغاية. وهذا ما نحتاجه بشدة حاليا.
المصدر: ريسبونسيبل ستيت كرافت