لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح للإنسان، من خلال التقاعس عن العمل، بإيذائه.
يجب على الروبوت أن يطيع الأوامر التي يصدرها له البشر، إلا في الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول.
يجب على الروبوت أن يحمي وجوده، طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.
كانت هذه هي القوانين الثلاث الأولى للذكاء الاصطناعي ممثلًا في الروبوتات، وهي قوانين وُضعت بواسطة كاتب الخيال العلمي إسحاق آسيموف في روايته “Runaround” التي صدرت عام 1942، ولعلك قد تتعجّب، لكن هذه القوانين حتى هذه اللحظة هي القوانين الثلاث الأساسية للذكاء الاصطناعي.
مهلًا، هل يوجد قوانين للذكاء الاصطناعي؟ لماذا؟ ومن الذي يقوم عليها؟ وكيف لم نسمع بها؟ أسئلة كثيرة حان وقت الإجابة عنها.
هل نحتاج إلى قوانين للذكاء الاصطناعي؟
ببساطة ومن دون إطالة، يمكن اختصار الأسباب التي تدعونا لعمل قوانين للذكاء الاصطناعي في كلمة واحدة: التنظيم، لا بدَّ أن يكون لكل شيء يمكن استخدامه من قبل البشر أو اتخاذه القرارات ذاتيًّا قوانين تقوم بتنظيمه، خاصة أن الكثير من الحكومات والمؤسسات أصبحت تستخدم الذكاء الاصطناعي ليساعدها في اتخاذ القرارات، التي ربما قد تكون حتمية وذات تأثير على حياتنا.
مثال على ذلك، استخدمت وزارة التعليم في إنكلترا خوارزمية لحساب درجات الطلاب في الامتحانات النهائية، ولسوء حظ هؤلاء الطلاب حصل 40% منهم على درجات أقل من التي قام بحسابها المعلمون في وقت سابق.
ذلك أن –وفقًا لصحيفة “الغارديان”– الخوارزمية فضّلت طلاب المدارس الخاصة على غيرهم من المدارس العامة، وسأترك لك المجال لتتخيل ما يمكن أن ينتج عن خطأ مثل هذا على نطاق أوسع.
لهذا السبب وببساطة، نحتاج إلى قوانين تنظّم الذكاء الاصطناعي، في مرحلة ما قبل التصنيع، ومرحلة ما قبل الانتشار، ومرحلة الإطلاق.
القوانين الثلاث للذكاء الاصطناعي
كما قرأت سلفًا، فإن ما سبق هو القوانين الثلاث للذكاء الاصطناعي، لكنها ليست قوانين معترف بها بالمعنى الحرفي، إنما هي أقرب إلى معيار أساسي أو جزء من دليل صنع (Guideline)، أي أداة من أدوات الذكاء الاصطناعي، تمامًا كأن تنشئ حسابًا جديدًا على منصة X (تويتر سابقًا)، فيكون أول ما تكتبه هو “Hello World”، ولتفصيل وشرح هذه القوانين، إليك التالي:
ببساطة، القوانين الثلاث شرحًا هي:
القانون الأول: يحظَر على الروبوتات إلحاق الأذى بالبشر، ويتضمن مصطلح الأذى هنا الأذى الجسدي والأذى العقلي على حد سواء، كأن لا يسمَح للروبوت بضرب الإنسان، أو نشر معلومات مضللة قد تسبب ضررًا عاطفيًّا له.
وكما رأينا في قصة جاسوانت سينغ تشيل، فقد ألحق الروبوت ساراي الأذى بالبشر، وهذا تحديدًا ما نُصَّ لأجله هذا القانون، لكن هل الذكاء الاصطناعي من ألحق الأذى بتشيل؟
القانون الثاني: يفرض على الروبوتات طاعة أوامر الإنسان، لكن هذا القانون هو متفرع من القانون الأول، ما يعني أنه يجب على الروبوت ألا يطيع الإنسان إذا كان الأمر سيلحق الضرر بالأخير، كأن يأمر الروبوت بضرب إنسان آخر أو بإطلاق النار عليه.
العقدة هنا هو أي قانون نحاسب الروبوت عليه، فهل يحاسَب الروبوت ساراي على إلحاقه الأذى بالإنسان معارضًا القانون الأول، أم أنه أُمر بواسطة صانعه بإلحاق الأذى بغيره من البشر، فيصبح معارضًا للقانون الثاني؟
القانون الثالث: على الروبوت حماية وجوده، وذلك دون أن يتعارض مع القانون الأول، كأن يصبح السبيل لحماية الروبوت لوجوده هو إلحاق الضرر بالإنسان.
هذه القوانين الثلاث مذهلة للغاية، لكنها قد تكون خيالية بعض الشيء، فما هو الواقع؟
لماذا لا نرى قوانين للذكاء الاصطناعي؟
“إذا ارتكب الذكاء الاصطناعي جريمة جنائية، من سيكون المسؤول جنائيًّا عن تلك الجريمة؟”، من كتاب “المسؤولية الجنائية عن جرائم الذكاء الاصطناعي” ليحيى إبراهيم دهشان، مدرس مساعد بقسم القانون الجنائي، كلية الحقوق، جامعة الزقازيق، مصر.
تخيّل معي هذا السيناريو، أُصيب جهازك بفيروس ما تسبّب في ضرر لجهازك، ونفّذ بعض العمليات التي أضرت بالأجهزة المتصلة بك، وفي النهاية قام الفيروس بحذف نفسه وأية ملفات متعلقة به، ثم تقول هذا للقاضي واقفًا في المحكمة، هل تحاسب أنت حينها على الإهمال أم يحاسب الفيروس؟
كان هذا مثالًا واقعيًّا من ضمن الأمثلة التي ضربها غابرييل هاليفي من كلية أونو الأكاديمية، على لسان جون كينغستون من جامعة برايتون بالمملكة المتحدة في كتابه “الذكاء الاصطناعي والمسؤولية القانونية“.
استكشف هاليفي 3 افتراضات لجرائم يمكن تطبيقها بواسطة الذكاء الاصطناعي، أو يقوم هو نفسه بها، أول هذه الافتراضات هو استخدام الذكاء الاصطناعي كوسيط أو كمنفّذ لجريمة ما، فكما يعتبر الحيوان -على سبيل المثال- بريئًا إذا ما أذى شخصًا ما، يمكن إلقاء المسؤولية على مالكه سواء كان من ناحية الإهمال أو من ناحية إصداره الأمر ليهجم على شخص آخر.
أما الافتراض الثاني فهو إذا ما أُسيء استخدام نظام ذكي ما بغرض ارتكاب جريمة، ويضرب مثالًا حقيقيًّا هنا عندما قتلَ روبوت في معمل دراجات ياباني زميله في العمل ظنًّا منه أنه يشكّل تهديدًا يعيق مهمته، واعتبر حينها أن الطريقة الأمثل للتخلص من هذا التهديد هي بدفعه ناحية إحدى الماكينات، فاستخدم الروبوت ذراعه الهيدروليكية دافعًا العامل ناحيتها ليلقى حتفه على الفور، لينتقل القاتل الذكي إلى متابعة واجباته كما لو أن شيئًا لم يكن.
“لحظة، لكن من الذي علّم الروبوت أن يقوم بتنفيذ مهامه بغض النظر عن أية معوقات، هل يحاسَب لعدم وضعه شرط عدم الأذى، أم أن هذا ليس مفترضًا من الأساس ويمكن اعتبار هذا خللًا في النظام؟”.
أما ثالث السيناريوهات هو امتلاك الروبوت النية ليتسبّب في أذى، أو أن يقوم بعمل إجرامي كامل، وهذه الحالة هي الأكثر صعوبة بين الثلاث، فكيف يمكن تحديد نية الذكاء الاصطناعي؟ كيف يمكن أن نحدد نية السيارة في الانطلاق سريعًا متجاوزة حدود السرعة؟
منذ ابتكارها، نسمع يوميًّا عن حوادث السيارات ذاتيه القيادة، وهي في النهاية لم تنتشر انتشار السيارات الاعتيادية حتى الآن، لكنها تبدي نجاحًا ملحوظًا بتحقيق عدد حوادث هائل، حيث وصل عدد حوادث السيارات ذاتية القيادة عام 2022 إلى 400 حادثة، من بينها 273 حادثة كان السبب فيها هو سيارات تيسلا المملوكة لإيلون ماسك، ومن المتوقع أن تصل إلى 569 حادثة في عام 2025.
في هذه الحالة، هل يمكن أن يلام المالك؟ أم الصانع؟ أم السيارة نفسها؟
يذكر أن كلًا من فولفو وجوجل ومرسيدس قد أعلنت عام 2015 عن تحملها المسؤولية الكاملة عن أي ضرر تتسبّب فيه سياراتها أثناء تشغيلها على وضع القيادة الآلية الكامل.
في الحالات الثلاث، هناك احتمال دائم لأن يكون الذكاء الاصطناعي هو المتسبّب في الجريمة أو الحادث، ويمكن اعتباره مسؤولًا عنها، لكن عند التوصل إلى هذه النتيجة، ما هو شكل الدفاع المحتمل استخدامه من قبل الذكاء الاصطناعي؟ هل يبرر ذلك بإصابته بفيروس إلكتروني؟
وأخيرًا، بعد التوصل إلى إدانة الذكاء الاصطناعي بالجريمة الموجّهة إليه، ما هو شكل العقوبة التي يمكن تطبيقها على الذكاء الاصطناعي؟
حتى نتأكد من امتلاك الذكاء الاصطناعي الوعي والإحساس، لا توجد إجابات عن هذه الأسئلة، ولن يكون أمامنا سوى تقسيم النظام إلى خدمة أو منتج، ووفقًا للقرار الصادر عن الحاكم البشري سيتم تطبيق القانون، إما بالأهمال وإما سوء الاستخدام في حالة الخدمة وإما العودة إلى الضمان -غير الموجود- في حالة المنتج.
أما الخيار الثاني، وهو الأقرب، فقد اقترحه كلًا من ريان أبوت أستاذ علوم القانون والصحة في كلية الحقوق بجامعة سري، وأليكس سارتش المدرّس المساعد في الفلسفة القانونية بالكلية ذاتها في كتاب “معاقبة الذكاء الاصطناعي: الخيال القانوني أو الخيال العلمي“، وهو تعريف جرائم جديدة، تمامًا كما أصبح يجرَّم الاحتيال بالحواسيب وسوء استخدامها للحصول على صلاحيات وصول إلى معلومات أو بيانات غير مصرّح بها، ليصبح لدينا في المستقبل قوانين لإساءة استخدام الذكاء الاصطناعي، وآخر للخطأ أثناء تصميم الآلة وغيرهما.
بوجود هذه القوانين، سيصبح لدى السلطات القدرة على وضع المعايير والاختبارات اللازمة لأنظمة الذكاء الاصطناعي، ولعلها تصبح مقنّنة وتخضع لاختبارات صارمة، كما هي السيارات عند ترخيصها.
الأزمة والصعوبة الأخيرة في هذا السياق هما إخلاء الشركات مسؤوليتها عن أيما كانت الردود الصادرة عن نماذج الذكاء الاصطناعي كنوع من أنواع أنظمة الذكاء الاصطناعي، على سبيل المثال بعدما تسبّب “بارد (Bard)” في إطلاقه الأول بالإحراج الكبير لشركة جوجل وانخفاض أسهمها، عندما سُئل: “ما هي آخر اكتشافات تيليسكوب جيمس ويب الفضائي التي يمكنني إخبارها لطفلي ذو الـ 9 سنوات؟”، أجاب حينها بـ 3 نقاط، من بينها أنه كان صاحب أول صورة لكوكب خارج نظامنا الشمسي، فيما كانت أول صورة قد اُلتقطت في عام 2004.
وجراء ذلك، أضافت جوجل نصًّا لإخلاء مسؤوليتها تجاه أي معلومات خاطئة أو هجومية يقدمها نموذج “بارد”.
فهل لنا أن نحاسب جوجل بعد الآن؟
لتعش معنا.. اتبع قوانيننا
كان لا بدَّ على كل دول العالم أن تبدأ في إصدار قوانينها وتشريعاتها الخاصة لتنظيم الذكاء الاصطناعي، ذلك لأن العالم لا يتوقف منذ بدأ استخدام المصطلح والحديث عن مخاطره، متأثرين بالعديد من الأفلام التي أظهرت الذكاء الاصطناعي بمظهر صاحب القدرات الخارقة كما في فيلم “ماتريكس (Matrix)”، أو بالمظهر الشرير كما في فيلم “إكس ماشينا (Ex Machina)”.
لهذه الأسباب، وصل عدد الدول التي بدأت في إصدار التشريعات التنظيمية للذكاء الاصطناعي عام 2022 إلى 60 دولة، كل منها يشرع قوانينه الخاصة وفقًا لكيفية فهمه لمصطلح الذكاء الاصطناعي، فإليكم أهم الدول.
قوانين الذكاء الاصطناعي في الاتحاد الأوروبي
في أبريل/ نيسان 2021، قدمت المفوضية الأوروبية قانون الذكاء الاصطناعي (AI Act) لأول مرة، واعتمد على تقسيم مدى خطورة التقنية على صحة الإنسان وسلامته إلى 4 مستويات، وهي: خطورة غير مقبولة، وخطورة مرتفعة، وخطورة محدودة، وخطورة منخفضة أو من دون خطورة.
وفقًا لمستوى الخطورة، وذلك وفقًا لمعايير يتم تحديد المستوى بناءً عليها، يتم قبول أو رفض إطلاق الآلة أو الأداة المدعّمة بتقنيات الذكاء الاصطناعي.
قوانين الذكاء الاصطناعي في المملكة المتحدة
ظهر اهتمام المملكة بإصدار قوانين الذكاء الاصطناعي جليًّا، وذلك بإطلاقها لكتيّب تعليمات الذكاء الاصطناعي في يوليو/ تموز 2022، وعلى النقيض من قوانين الاتحاد الأوروبي (AIA)، فإن قوانين المملكة تعدّ أكثر مرونة، حيث تسمح لمشرّعي القوانين باتخاذ القرارات اللازمة وفقًا للموقف دون فرض القوانين على الشركات، وذلك لتسمح لهم بالمزيد من الحرية الإبداعية، ولتزيد من الثقة العامة في التقنية.
قوانين الذكاء الاصطناعي في الولايات المتحدة
اتخذت الولايات المتحدة نهجًا مختلفًا في تنظيم الذكاء الاصطناعي، حيث سمحت لكل ولاية بإصدار قوانينها الخاصة، حيث تركز معظم هذه القوانين على إنشاء لجان لدراسة تأثيرات الذكاء الاصطناعي على القوى العاملة والمستهلكين، ووضع قواعد لكيفية استخدام الشركات للذكاء الاصطناعي، وهناك أيضًا بعض التشريعات الحكومية المشتركة التي تنتظر الموافقة، والتي من شأنها أن تضع قواعد أكثر شمولًا لمسؤولية وشفافية أنظمة الذكاء الاصطناعي.
وبعد تمرير قوانين الذكاء الاصطناعي تحت مسمّى National AI Initiative Act في يناير/ كانون الثاني 2021 بواسطة الكونغرس الأمريكي، تمَّ إنشاء مبادرة تحت اسم National AI Initiative، وقد انضمَّ إلى هذه المبادرة العديد من المؤسسات الأمريكية، كلجنة التجارة الفيدرالية ووزارة الدفاع والزراعة والتعليم والصحة، وذلك لإنشاء المكاتب وفرق العمل لضمان تنفيذ لوائح وقوانين الذكاء الاصطناعي.
قوانين الذكاء الاصطناعي في الصين
في الجانب الآخر من العالم، لم تفوّت الصين “التريند”، وقامت بتمرير قوانينها لتنظيم الذكاء الاصطناعي في مارس/ آذار 2022، وذلك من خلال وضع القوانين التي تفرض على الشركات تحذير المستخدمين عند وجود خوارزمية ذكاء اصطناعي تقرر المحتوى الذي يعرض لهم، والسماح لهم بالموافقة أو الرفض، كما يجرّم القانون الخوارزميات التي تقدم للمستهلكين عروضًا بأسعار متفاوتة بناءً على المعلومات الشخصية.