“هو أكبر تهديد للوجود البشري، بل بمثابة استدعاء الشياطين، وإذا تمكنت الآلات في يومٍ ما من تصميم خوارزمياتها بنفسها، فتلك تكون نهاية البشر”.. بهذه الكلمات أجاب عالم الفيزياء الشهير، الراحل ستيفن هوكينج، عند سؤاله عن توقعه لما سيئول إليه مستقبل الجنس البشري إذا وصل الذكاء الاصطناعي حد الذكاء البشري.
جميعنا لاحظ مقدار التطور الهائل في البرمجيات والقدرات الحاسوبية في العقد الماضي، فكل ما حصل من تطور في أنظمة الذكاء الاصطناعي منذ أول إطلاقها كمصطلح خاص في ستينيات القرن العشرين، وإلى يومنا هذا يعد في كفة، والتطور في العشر سنوات الفائتة في كفة أخرى.
لا تجد أي جانب من جوانب الحياة لم تدخله أنظمة الحوسبة الذكية، وفي كل جانب دخلته سارعت في تطويره بشكل كبير جدًا، ونحن في بداية الطريق بعد، فمن السيارات ذاتية القيادة، إلى المساعديين الصوتيين في منازلنا، إلى توقعات الطقس وإجراء العمليات الجراحية عن بعد من خلال الروبوتات، وما هي إلاّ أمثلة حية لدخول الذكاء الاصطناعي في حياتنا.
مستقبل أفضل؟
يقصد بمصطلح الذكاء الاصطناعي (AI)، تطوير الحواسيب لتُجاري الذكاء البشري، وله ثلاثة أقسام:
الذكاء الاصطناعي الضيق، وهو كل ما نراه حولنا، وهو تدريب الحواسيب لأداء مهام محددة وبكفاءة تفوق قدرة البشر على تنفيذها، لكنها لم تبلغ حد الذكاء البشري.
الذكاء الاصطناعي العام، وهو وصول الحواسيب لمرحلة تساوي فيه ذكاء البشر، ويتوقع أن نشاهد أولى ابتكاراته عام 2050.
الذكاء الاصطناعي الخارق، ويقصد به تفوق الأنظمة الحاسوبية على الذكاء البشري، ويتوقع أن يكون في عام 2090.
العلامة الفارقة التي حصلت في العقد الأخير ودعت الكثيرين للتخوف من مستقبل هذا الذكاء، هو تطوير خوارزميات التعلّم الآلي والتعلّم العميق، وهي تعليم الحواسيب نفسها بنفسها دون الاعتماد على الجنس البشري. فعلى سبيل المثال، طوّرت شركة DeepMind التابعة لشركة جوجل، خوارزميات دربت نفسها على ممارسة الألعاب كالشطرنج وغيرها دون برمجة مسبقة، وبالفعل خلال ساعات قلائل أصبحت محترفة ومستعدة للتغلب على أعتى اللاعبين.
لكن مع استمرار انتشار خوارزميات الذكاء الاصطناعي، هل سيكون الناس في وضع أفضل مما هم عليه اليوم؟
في دراسة أجراها مركز بيو للأبحاث في الولايات المتحدة الأمريكية عام 2019، أجاب 979 من رواد التكنولوجيا والمبتكرين والمطورين وقادة الأعمال والسياسة والباحثين والناشطين عن هذا السؤال، حيث توقع قرابة 40% منهم بأن البشر لن يكونوا في وضع أفضل في المستقبل، وكانوا أشد تشاؤمًا من غيرهم.
دانا بويد، الباحث الرئيسي لمايكروسوفت ومؤسس ورئيس معهد بحوث البيانات والمجتمع، وأحد المشاركين في الدراسة، رأى في هذا الصدد أن “الذكاء الاصطناعى أداة ستستخدم من البشر لجميع الأغراض، بما في ذلك السعي وراء السلطة. ستكون هناك انتهاكات للسلطة تنطوي على الذكاء الاصطناعي، تمامًا كما سيكون هناك تقدم في الجهود العلمية والإنسانية التي تنطوي أيضًا على الذكاء الاصطناعي”.
سيناريو “التفرد”
لعلّ من أكثر السيناريوهات تشاؤمًا تجاه مستقبل الذكاء الاصطناعي هو سيناريو التفرد، الذي يقصد به وصول الآلات لمستوى الذكاء الاصطناعي العام “GIA”، أي باستطاعتها الوصول للذكاء البشري.
يرسم متبنو هذا النهج مستقبلًا مظلمًا وغالبًا ما يتم ربطه بأفكار القيامة ونهاية العالم.
يعتقد سيث شوستاك، كبير علماء الفلك في أمريكا أن الذكاء الاصطناعى سوف ينافس البشر ككيانات ذكية على هذا الكوكب، والجيل الأول من الذكاء الاصطناعى سوف يفعل ما تخبره به، لكن بحلول الجيل الثالث، سيكون لديهم أجندة خاصة بهم.
لكن مع كل التطور الذي شهدناه، ما زال الوصول لهذا المستوى من الاستقلالية لدى الحواسيب بعيد المنال.
ومن أكبر التحديّات التي تواجه الحواسيب للوصول لهذا المستوى عدم إمكانية منحها الشعور الذي عند البشر، فيمكن تطويرها لتكون ذكية، لكن لا يمكن لها أن تحب أو تكره أو تتصرف كما يتصرف البشر، فهي آلات مهما مُنحت من ذكاء لا يمكن منحها الروح والحياة.
المخاطر المحسوسة للذكاء
هناك نهج آخر للتعامل مع مخاطر الذكاء الاصطناعي يتسم بالعقلانية والواقعية، النهج الذي يتعامل مع المعطيات التي أوجدها الذكاء الاصطناعي على أرض الواقع.
الكل مدرك أن الثورة الصناعية الرابعة هي ثورة الذكاء الاصطناعي، والبيانات هي “النفط الجديد”، والوقود المحرك للحروب القادمة، وصانعو القرار في العالم يعرفون أن مستقبل السيطرة على الاقتصاد في العالم ينبع من التعامل الجيد مع البيانات وكيفية فك ألغازها.
ألمّح لذلك الرئيس الروسي فلاديمير بوتين، خلال لقائه بطلبة الجامعات الروسية في العام السابق بقوله: “الذي يكون متقدمًا في هذا المجال سوف يكون حاكمًا للعالم”.
المخاطر المحسوسة للذكاء الاصطناعي كانت انعكاسًا للآثار التي أوجدها في بعض النواحي، منها:
- ضعف الدور القيادي للإنسان.
- بالوقت الحاليّ معظم القرارات المتعلقة بالجوانب الرئيسية للحياة الرقمية تُتخذ تلقائيًا عبر الحواسيب.
- إذ يفتقر الأشخاص إلى معرفة الخوارزميات ولا يفقهون كيفية عملها، فبالتالي هم يضحون بالاستقلال والخصوصية والسلطة على الاختيار؛ ليس لديهم سيطرة على هذه العمليات.
- سوف يتعمق هذا التأثير عندما تصبح الأنظمة الآلية أكثر انتشارًا وتعقيدًا.
إساءة استخدام
غالبًا ما يتم استخدامات البيانات من قبل الشركات الكبرى أو السلطات بما يحقق لها الأرباح، أو يبسط لها النفوذ بشكل أكبر، أمّا فيما يتعلق بحقوق الناس وخصوصياتهم فتأتي بالمرحلة الثانية. لذا فمن الأخطار الكبيرة التي نشاهدها هو تسرب البيانات بشكل كبير بين الفينة والأخرى بسبب ضعف الإجراءات الأمنية التي تتخذها تلك الشركات لحفظ أمان المستخدمين.
ومن المشاكل التي ظهرت بسبب الأتمتة وتوسع استخدام خوارزميات الذكاء الاصطناعي فقدان الكثير من الوظائف، ومن الأمثلة على ذلك ما جرى في مستودعات عملاق المتاجر Amazon، حيث جرى استبدال عشرات الآلاف من العمال بأكثر من 100000 روبوت، الأمر الذي دفع بأمازون لدفع أموال لموظفيها من أجل التدريب على وظائف جديدة في شركات أخرى.
قال كلارا نهاردست، أستاذ علوم الكمبيوتر بجامعة إلينوي: “إننا نستثمر بشكل كبير في التعليم لإعادة تدريب الناس على وظائف جديدة”.
وإلى ذلك، يرى كثيرون أن الذكاء الاصطناعي يعزز القدرات البشرية، لكن البعض يتوقع عكس ذلك، أي أن تعميق اعتماد الناس على الشبكات التي تحركها الماكينات سيؤدي إلى تآكل قدراتهم على التفكير بأنفسهم، واتخاذ إجراءات مستقلة عن الأنظمة الآلية والتفاعل مع الآخرين.
أما التهديد الأكثر خطورة في رأي الكثيرين، فهو التطور الكبير في الأسلحة والروبوتات في القطاع العسكري. ولا نتحدث هنا عن انقلاب الروبوتات والحواسيب على البشر والقضاء عليهم كما يشطح البعض بخياله، لكن من احتمالية الاختراق من الدول المعادية والأشخاص ذوي الهوس الإجرامي، وإدخال أوامر خاطئة وبرامج خبيثة قد تقود لكارثة حقيقية، أو سيطرة القراصنة على الأنظمة البنكية مسببين خسائر اقتصادية كبيرة.
أخيرًا..
في الخريف الماضي، خلال حديثه في بروكسل، بلجيكا، عبر تيم كوك رئيس شركة آبل عن قلقه من التهديد المتنامي للذكاء الاصطناعي، وقال: “تعزيز الذكاء الاصطناعي من خلال جمع ملفات شخصية ضخمة هو الكسل، وليس الكفاءة، ولكي يكون الذكاء الاصطناعي ذكيًا حقًا، يجب أن يحترم القيم الإنسانية، بما في ذلك الخصوصية. وإذا أخطأنا، فإن المخاطر عميقة”.
لذا يقترح الخبراء ضرورة سن قوانين وأنظمة لتحقيق عدالة رقمية بين الجميع، والتعاون لاستخدام الذكاء الاصطناعي لما فيه خير البشرية، كذلك ضرورة وضع سياسات لضمان أن الذكاء الاصطناعي سيتم توجيهه نحو “الإنسانية” والصالح العام وبناء شبكات رقمية ذكية شاملة تساعد البشر بقوة على ضمان أن التكنولوجيا تلبي المسؤوليات الاجتماعية والأخلاقية.