ترجمة وتحرير: نون بوست
أصبحت كلمة “خطر” هذه الأيام مرادفة لكلمة “الذكاء الاصطناعي”. وبينما من المشجّع أن نرى قادة العالم ينظرون في المشاكل المحتملة للذكاء الاصطناعي إلى جانب فوائده الصناعية والاستراتيجية، يجب أن نتذكر أنه ليست كل المخاطر متساوية.
يوم الأربعاء الموافق لـ 14 حزيران/ يونيو، صوّت البرلمان الأوروبي للموافقة على مسوّدة اقتراحه الخاص بقانون الذكاء الاصطناعي، وهو قانون استغرقت صياغته سنتين يهدف لوضع معايير عالمية لتنظيم الذكاء الاصطناعي.
بعد مرحلة نهائية من المفاوضات لتوحيد المسودّات المختلفة الصادرة عن البرلمان الأوروبي والمفوضية والمجلس الأوروبي، يجب الموافقة على القانون قبل نهاية السنة. وسيصبح بذلك أول تشريع في العالم مخصص لتنظيم الذكاء الاصطناعي في جميع قطاعات المجتمع تقريبًا – باستثناء مجال الدفاع.
ومن بين جميع الطرق التي يمكن للمرء أن يتبعها في تنظيم الذكاء الاصطناعي، يستند هذا القانون بالكامل إلى مفهوم المخاطرة. وفي الواقع، ليس المقصود تنظيم الذكاء الاصطناعي في حدّ ذاته بل طريقة استخدامه في مجالات محددة من المجتمع، وينطوي كل منها على مشاكل محتملة مختلفة. وتشمل فئات المخاطر الأربع الخاضعة للالتزامات القانونية المختلفة: المخاطر غير المقبولة، عالية الخطورة، محدودة الخطورة، وقليلة الخطورة.
سيتم تصنيف الأنظمة التي تمثّل تهديدًا للحقوق الأساسية أو قيم الاتحاد الأوروبي على أنها تنطوي على “مخاطر غير مقبولة” وسيتم حظرها. ومن الأمثلة على هذا الخطر أنظمة الذكاء الاصطناعي المستخدمة في “ضبط الأمن التنبئي”. وهذا يعني استخدام الذكاء الاصطناعي لتقييم مخاطر الأفراد، بناءً على المعلومات الشخصية، للتنبؤ بما إذا كانوا عرضةً لارتكاب جرائم.
هناك حالة أكثر إثارة للجدل وهي استخدام تقنية التعرف على الوجوه في البث المباشر لكاميرات الشوارع. وقد أُضيف هذا أيضًا إلى قائمة المخاطر غير المقبولة ولن يُسمح به إلا بعد ارتكاب جريمة وبتصريح قضائي. وستخضع تلك الأنظمة المصنفة على أنها “عالية المخاطر” لالتزامات الإفصاح ومن المتوقع أن يتم تسجيلها في قاعدة بيانات خاصة. كما أنها ستخضع لمتطلبات مراقبة وتدقيق مختلفة.
تشمل أنواع التطبيقات المقرر تصنيفها على أنها عالية الخطورة، الذكاء الاصطناعي الذي يمكنه التحكّم في الوصول إلى الخدمات في مجال التعليم والتوظيف والتمويل والرعاية الصحية وغيرها من المجالات الحيوية. ولا يعتبر استخدام الذكاء الاصطناعي في مثل هذه المجالات أمرا غير مرغوب فيه، ولكن الرقابة ضرورية بسبب قدرته على التأثير سلبًا على السلامة أو الحقوق الأساسية.
تكمن الفكرة في أنه يجب أن نكون قادرين على الوثوق في أن أي برنامج يتخذ قرارات بشأن قرض عقاري – مثلا – سيتم فحصه بعناية للتأكد من امتثاله للقوانين الأوروبية لضمان عدم التمييز على أساس الخصائص المحمية مثل الجنس أو الخلفية العرقية – على الأقل إذا كنا نعيش في الاتحاد الأوروبي.
ستخضع أنظمة الذكاء الاصطناعي “ذات المخاطر المحدودة” إلى الحد الأدنى من متطلبات الشفافية. وعلى نحو مماثل، سيتعين على مشغلي أنظمة الذكاء الاصطناعي التوليدية – مثل الروبوتات التي تنتج نصًا أو صورًا – الكشف عن أن المستخدمين يتفاعلون مع آلة.
خلال رحلته الطويلة عبر المؤسسات الأوروبية التي بدأت في سنة 2019، أصبح القانون محددًا وواضحًا بشكل متزايد بشأن المخاطر المحتملة لنشر الذكاء الاصطناعي في المواقف الحساسة – إلى جانب كيفية رصد هذه المخاطر والتخفيف من حدتها. وهناك حاجة إلى المزيد من العمل، ولكن الفكرة واضحة: نحن بحاجة إلى أن نكون محددين إذا أردنا إنجاز الأمور.
خطر الانقراض؟
على النقيض من ذلك، رأينا مؤخرًا التماسات تدعو إلى التخفيف من “خطر الانقراض” المفترض الذي يمثله الذكاء الاصطناعي، دون تقديم تفاصيل إضافية. وقد أيّد العديد من السياسيين هذه الآراء. وتختلف هذه المخاطر العامة وطويلة المدى تمامًا عما يشكل قانون الذكاء الاصطناعي، لأنها لا تقدم أي تفاصيل حول ما يجب أن نبحث عنه، ولا ما يجب أن نفعله الآن لحماية أنفسنا منه.
إذا كانت “المخاطر” هي “الضرر المتوقع” الذي قد يحدث بسبب شيء ما، فمن الأفضل أن نركز على السيناريوهات المحتملة التي تكون ضارة ومحتملة في الوقت نفسه، لأن هذه السيناريوهات تنطوي على أعلى درجة من المخاطر. ولا ينبغي أن تأخذ الأحداث غير المحتملة للغاية، مثل اصطدام كويكب، الأولوية على الأحداث الأكثر احتمالية، مثل آثار التلوث.
من هذا المنطلق، فإن مشروع القانون الذي تمت المصادقة عليه للتو من قبل برلمان الاتحاد الأوروبي له تأثير أقل، ولكنه أكثر جوهرية من بعض التحذيرات الأخيرة بشأن الذكاء الاصطناعي. إنه يحاول السير على الخط الفاصل بين حماية الحقوق والقيم، دون عرقلة الابتكار، ومعالجة كل من المخاطر والحلول بشكل محدّد. ومع أنه ليس مثاليا، إلا أنه يوفّر على الأقل إجراءات ملموسة
ستكون المرحلة التالية في رحلة هذا القانون هي الثلاثيات – الحوارات الثلاثية – حيث سيتم دمج المسودات المنفصلة للبرلمان والمفوضية والمجلس في نص نهائي. ومن المتوقع التوصّل إلى حلول وسط في هذه المرحلة. وسيتم التصويت على القانون الناتج ليدخل حيز التنفيذ، على الأرجح في نهاية سنة 2023، قبل بدء حملة الانتخابات الأوروبية المقبلة.
بعد سنتين أو ثلاث سنوات، سيدخل القانون حيز التنفيذ وسيتعين على أي شركة تعمل داخل الاتحاد الأوروبي الامتثال له. ويطرح هذا الجدول الزمني الطويل بعض الأسئلة من تلقاء نفسه، لأننا لا نعرف كيف سيبدو الذكاء الاصطناعي أو العالم في سنة 2027.
دعونا نتذكر أن رئيسة المفوضية الأوروبية، أورسولا فون دير لاين، اقترحت لأول مرة هذه اللائحة في صيف سنة 2019، قبل حدوث الجائحة واندلاع الحرب وأزمة الطاقة. وكان هذا أيضًا قبل أن يجعل برنامج “شات جي بي تي” السياسيين ووسائل الإعلام يتحدثون بانتظام عن خطر وجودي ناجم عن الذكاء الاصطناعي.
مع ذلك، صِيغ القانون بطريقة عامة بما فيه الكفاية قد تساعده على البقاء على صلة بالواقع لفترة من الوقت. وقد يؤثر ذلك على كيفية تعامل الباحثين والشركات مع الذكاء الاصطناعي خارج أوروبا.
من الواضح أن كل تقنية تنطوي على مخاطر، وبدلاً من انتظار حدوث شيء سلبي تحاول المؤسسات الأكاديمية ومؤسسات صنع السياسات التفكير مسبقًا في عواقب البحث. ومقارنة بالطريقة التي اعتمدنا بها التقنيات السابقة – مثل الوقود الأحفوري – فإن هذا يمثل درجة من التقدم.
الموقع: ذا كونفرسيشن