ترجمة وتحرير نون بوست
تعد التحديات الأخلاقية للذكاء الاصطناعي معروفة جيدًا، وفي عام 2020 سندرك أن أخلاقيات الذكاء الاصطناعي بحاجة للتدوين بطريقة واقعية قابلة للتنفيذ، فعدم القيام بذلك سيشكل تهديدًا وجوديًا للأفراد والشركات والمجتمع.
ورغم أنها تكنولوجيا تجريبية وغالبًا ما تكون معيبة، فإن الذكاء الاصطناعي يستخدم على نطاق واسع، فهو يُستخدم عند طلبنا لقرض أو تقدمنا لوظيفة، ويستخدم لمراقبة الأحياء، كما يُستخدم لمسح وجوهنا للتحقق من قوائم المراقبة عند تسوقنا أو سيرنا في المناطق العامة، ولإدانتنا عند تعرضنا لمحاكمة وكذلك لإدارة الحروب.
كل هذه الأمور تحدث دون إطار عمل قانوني يضمن استخدام الذكاء الاصطناعي بشفافية ومسؤولية، وفي 2020 سندرك أن هذا الأمر يجب أن يتغير تمامًا.
هذه المخاوف المتعلقة بالذكاء الاصطناعي لا تقتصر على الحريات المدنية ونشطاء حقوق الإنسان، فقد حذرت كريسيدا ديك – مفوض شرطة العاصمة في لندن – من خطورة أن تصبح المملكة المتحدة دولة بوليسية شمولية مروعة، وطالبت وكالات تنفيذ القانون بالمشاركة في المعضلة الأخلاقية التي يطرحها الذكاء الاصطناعي والتقنيات الأخرى.
كانت الشركات التي تصنع وتبيع تقنيات التعرف على الوجوه مثل مايكروسوفت وجوجل وأمازون قد طالبت الحكومات مرارًا وتكرارًا بتمرير قوانين تحكم استخدام تلك التقنيات، لكن دون جدوى.
من الممكن فهم قوة التكنولوجيا من خلال الإجابة عن 3 أسئلة: من يعرف؟ من يقرر؟ من يقرر من يقررون؟
يرى العديد من الناس أن هذا النقاش يجب أن يتسع نطاقه لأبعد من الذكاء الاصطناعي، مطالبين بترسيخ أخلاقيات لكل مرحلة من مراحل التكنولوجيا، هذا يعني أن السؤال لن يكون فقط “هل يمكننا أن نبني ذلك؟” لكنه سيكون أيضًا “هل ينبغي علينا ذلك؟” مما يعني فحص مصادر تمويل كل التقنيات (مثل المملكة العربية السعودية التي تعد مستثمرًا كبيرًا في شركة “Softbank’s Vision Fund”).
ويعني كذلك إدارك افتقارنا للتنوع والشمولية في التكنولوجيا التي تصنع برمجيات وأداوات تستثني الكثير من البشر، بالإضافة كذلك إلى تحيزات عميقة ومضرة في قواعد بياناتنا.
لكننا سنتحدى الفكرة التي اعتنقها العديد من المتحمسين للتكنولوجيا التي تقول إن التكنولوجيا محايدة، وأنه ينبغي السماح للشركات التكنولوجية بجني المالي مع رفض تحمل المسؤولية الذي يتجاوز الحد الأدنى من الامتثال للقانون.
تحدت كيت كراوفورد – مؤسس مشارك في معهد ” AI Now” – هذ الموقف في محاضرتها أمام الجمعية الملكية عام 2018 حيث قالت: “ما الحياد؟ هل هو ما يبدو عليه العالم الآن؟ هل نعتقد حقًا أن العالم يبدو محايدًا الآن؟”.
بينما قالت شوشانا زبوف في كتابها “رأسمالية المراقبة” إنه من الممكن فهم قوة التكنولوجيا من خلال الإجابة عن 3 أسئلة: من يعرف؟ من يقرر؟ من يقرر من يقررون؟ كما أظهرت دراسة استقصائية موجزة عن عالم التكنولوجيا اليوم أن هذه القوة يجب احتوائها.
عام 2020 سوف نتفهم الحاجة إلى تنظيم أفكارنا بشأن ما يجعل الذكاء الاصطناعي والتكنولوجيا بأكملها أخلاقية، وبالفعل فقد بدأ صناع القرار في الحكومات والقطاع الخاص بالبحث في الأخلاقيات كجزء من تفكيرهم والتخطيط لمستقبل العمل والمجتمع، وفي العام القادم سنكون بحاجة لمواصلة البحث وتضمين القيم الأخلاقية في التشريعات.
ما ينقصنا الآن اتباع منهج صارم لأخلاقيات الذكاء الاصطناعي قابل للتطبيق والقياس والمقارنة بين أصحاب المصالح والمنظمات والدول، هناك القليل من الفائدة في أن نطلب من العاملين في مجال “STEM” بتطبيق قسم أبقراط، مثل تعيين الشركات موظف الأخلاقيات أو تقديم مجموعة من المبادئ والإرشادات الأخلاقية للمنظمات لتطبيقها، في حالة عدم قدرتنا على اختبار فعالية تلك الأفكار.
في العالم المقبل سنرى حاجتنا لتلك الصرامة، وحتى الآن فإن أخلاقيات الذكاء الاصطناعي تبدو شيئًا ممتعًا للنقاش الأكاديمي حوله، في عام 2020 سوف ندرك أن عدم اتخاذ خطوات عملية لتضمين تلك الأخلاقيات في طريقة حياتنا سيكون له آثار كارثية.
المصدر: وايرد