الذكاء الاصطناعي.. إلى أي مدى يجب أن نشعر بالقلق؟

ترجمة حفصة جودة
يملك الذكاء الاصطناعي قدرة هائلة على تغيير الطريقة التي نعيش بها حياتنا، بطرق جيدة وخطيرة أيضًا، لكن الخبراء لا يشعرون بكثير من الثقة في استعداد المسؤولين عن ذلك لما هو قادم.
في عام 2019، أنشأت مجموعة بحثية اسمها OpenAI برنامجًا يستطيع كتابة فقرات من نصوص متماسكة وقطع فهم أولية وتحليلات دون تعليمات محددة، قررت المجموعة في البداية ألا يكون اختراعها الذي أسمته GPT-2 متاحًا للعامة بشكل كامل، خوفًا من النوايا الخبيثة، واستخدامه في توليد كمّية ضخمة من المعلومات والدعاية المغلوطة.
في المؤتمر الصحفي الذي أعلنت فيه المجموعة عن قرارها ذاك، وصفت هذا البرنامج بأنه “شديد الخطورة”، لكن بعد مرور 3 سنوات فقط ازدادت قدرات الذكاء الاصطناعي بسرعة هائلة للغاية.
وعلى عكس النسخة المحدودة السابقة، كان العرض القادم GPT-3 متاحًا للجميع في نوفمبر/ تشرين الثاني، وكان برنامج Chatbot-GPT المشتق منه هو الخدمة التي أطلقت آلاف المقالات ومنشورات وسائل التواصل الاجتماعي، حيث كان المحررون والخبراء يختبرون قدراته، وكانت النتائج مثيرة.
كتب Chatbot-GPT نصوصًا ارتجالية بطريقة الكوميديان الراحل جورج كارلين عن فشل بنك وادي السيليكون، وعبّر عن رأيه في اللاهوت المسيحي وكتب الشعر، وشرح نظرية الكمّ للطفل كما لو أنه مغني الراب سنوب دوغ.
أما بقية نماذج الذكاء الاصطناعي مثل Dall-E فقد أنتجت مرئيات مثيرة للانتباه، حتى أنها أثارت جدلًا بشأن إدراجها في المواقع الفنية، لقد حقّقت تلك الآلات إنجازات مبدعة لو نظرنا إليها بالعين المجردة.
في يوم الثلاثاء، أعلنت شركة OpenAI عن أحدث إصدار لبرنامجها، GPT-4، والذي تقول إنه يضم قيودًا صارمة على الاستخدامات المسيئة، من بين أوائل العملاء مايكروسوفت وشركة ميريل لينش وحكومة آيسلندا.
تعمل التكنولوجيا كأداة تجعل حياتنا أكثر سهولة وسلاسة، وإضافة مميزات الذكاء الاصطناعي إلى المنتجات الاستهلاكية قد يساهم في توقع احتياجات المستهلك والمساعدة في إنجاز أي مهمة فعليًّا.
وفي مؤتمر South by Southwest Interactive Conference في أوستن بتكساس، الذي يجتمع فيه صنّاع السياسات التقنية والمستثمرون والمديرون التنفيذيون، كانت أشد الموضوعات إثارة حول إمكانات وقوة برامج الذكاء الاصطناعي.
تقول آراتي بارباكار، مديرة مكتب سياسات العلوم والتكنولوجيا بالبيت الأبيض، إنها متحمّسة بشأن قدرات الذكاء الاصطناعي، لكن تتملكها بعض المخاوف أيضًا، فقد قالت أمام جمهور المؤتمر: “ما نراه جميعًا هو ظهور تلك التكنولوجيا شديدة القوة، إنها نقطة فاصلة، فالتاريخ كله يخبرنا أن هذه الأنواع من التقنيات القوية الجديدة يمكن استخدامها في الخير وفي الشر أيضًا”.
كان زميلها أوستن كارسون، مؤسّس مجموعة SeedAI لاستشارات سياسات الذكاء الاصطناعي، أكثر صراحة، فقد قال: “إن لم تشعر بالذعر الكامل خلال 6 أشهر، سأشتري لك وجبة عشاء”.
لكن “الذعر” هو فقط أحد طرق التعبير عن ذلك، حاولت إيمي ويب، رئيسة معهد Future Today وأستاذة الأعمال بجامعة نيويورك، تحديد النتائج المحتملة في عرضها التقديمي بالمؤتمر، حيث قالت إن الذكاء الاصطناعي قد يتجه في واحد من طريقَين خلال الـ 10 سنوات المقبلة.
في السيناريو المتفائل سيركّز تطوير الذكاء الاصطناعي على الصالح العام، مع شفافية في تصميم نظام الذكاء الاصطناعي، وقدرة الأفراد على اختيار إضافة معلوماتهم العامة على الإنترنت إلى قاعدة معرفة الذكاء الاصطناعي أم لا.
تعمل التكنولوجيا كأداة تجعل حياتنا أكثر سهولة وسلاسة، وإضافة مميزات الذكاء الاصطناعي إلى المنتجات الاستهلاكية قد يساهم في توقع احتياجات المستهلك، والمساعدة في إنجاز أي مهمة فعليًّا.
أما السيناريو الكارثي فيتضمن خصوصية أقل في البيانات، ومزيدًا من مركزية القوة في يد حفنة من الشركات والذكاء الاصطناعي التي تتوقع احتياجات المستخدم، وتنفّذها بشكل خاطئ أو على الأقل تحدد الخيارات.
منحت ويب للسيناريو المتفائل فرصة نسبتها 20% فقط، وتقول إن اتجاه التكنولوجيا يقع في النهاية بشكل كبير على عاتق الشركات التي تطوّره، هل تقوم بذلك بكل شفافية وتراقب وتكشف عن المصادر التي يستقي منها Chatbots (التي يسميها العلماء نماذج اللغة الكبرى) معلوماتها؟
العامل الآخر المؤثر كما تقول ويب هو قدرة الحكومات على التحرك سريعًا لوضع أسُس قانونية لتوجيه التطورات التكنولوجية ومنع إساءة استخدامها، لكن في هذا الشأن تجربة الحكومات مع شركات التواصل الاجتماعي، مثل فيسبوك وتويتر وجوجل وغيرها، كاشفة وليست مشجّعة بأي حال.
أما ميلاني سوبين، المديرة الإدارية لمعهد Future Today، فتقول: “ما سمعته في كثير من المحادثات يشير إلى مخاوف بشأن عدم وجود أي قوانين وقائية، هناك إحساس بالحاجة إلى القيام بشيء ما، وأعتقد أن ما يسيطر على تفكير الناس عندما يرون سرعة تطور الذكاء الاصطناعي التوليدي، هو وسائل التواصل الاجتماعي كقصة تحذيرية”.
تعتمد الرقابة الفيدرالية لشركات التواصل الاجتماعي بشكل كبير على قانون “آداب الاتصالات”، والذي مرّره الكونغرس عام 1996، وهناك بند قصير لكن قوي في القسم 230 من القانون، يقول إن اللغة تحمي شركات الإنترنت من مسؤوليتها عن المحتوى الذي ينتجه المستخدم على مواقعها، فله الفضل في خلق بيئة قانونية تزدهر فيها شركات التواصل الاجتماعي.
لكنه يُلام مؤخرًا على سماحه لشركات الإنترنت بتحقيق الكثير من السلطة والنفوذ، فالسياسيون من ناحية اليمين يرون أنه سمح لشركات مثل جوجل وفيسبوك تقييد الآراء المحافظة والحد من ظهورها، أما السياسيون من جهة اليسار فيتّهمون تلك الشركات بأنها لا تقوم بما فيه الكفاية لمنع انتشار خطاب الكراهية والتهديدات العنيفة.
تقول جوسلين بنسون، وزيرة خارجية ميشيغان، “لدينا فرصة ومسؤولية للاعتراف بأن خطاب الكراهية يؤدي إلى أعمال مسيئة”، في ديسمبر/ كانون الأول 2020 اُستهدف منزل بنسون بمظاهرات مؤيدي دونالد ترامب المسلحين التي نُظمت على فيسبوك، وذلك طعنًا في نتائج الانتخابات الرئاسية لعام 2020.
دعمت بنسون تشريع الممارسات الخادعة في ميشيغان، والذي يُحمّل شركات التواصل الاجتماعي مسؤولية نشر المعلومات الضارة عمدًا، كان هناك اقتراحات مماثلة على المستوى الفيدرالي وفي ولايات أخرى، تتفق مع التشريع وتطالب مواقع التواصل الاجتماعي بتوفير مزيد من الحماية للمستخدمين القاصرين، وأن يكونوا أكثر انفتاحًا بشأن سياسات الإشراف على المحتوى، واتخاذ خطوات أكثر فاعلية للحدّ من المضايقات الإلكترونية.
رغم توافر الأدلة حول مشكلات فيسبوك وغيره من مواقع التواصل الاجتماعي، فقد مرَّ أكثر من 25 عامًا وما زلنا ننتظر أي تشريع من الكونغرس لحماية المستهلكين، لكنهم تخلوا عن مسؤوليتهم.
مع ذلك، تباينت الآراء حول فرص نجاح هذا الإصلاح، فشركات التكنولوجيا الكبيرة تمتلك فرق ضغط كاملة في واشنطن وعواصم الولايات، وكذلك خزائن غامضة تستخدمها للتأثير على السياسيين من خلال حملات التبرعات.
تقول كارا سويشر، صحفية تقنية: “رغم توافر الأدلة حول مشكلات فيسبوك وغيره من مواقع التواصل الاجتماعي، فقد مرَّ أكثر من 25 عامًا وما زلنا ننتظر أي تشريع من الكونغرس لحماية المستهلكين، لكنهم تخلوا عن مسؤوليتهم”.
ترى سويشر أن الخطر يكمن في أن العديد من الشركات التي تعدّ لاعبًا رئيسيًّا في وسائل التواصل الاجتماعي، مثل فيسبوك وجوجل وأمازون وآبل ومايكروسوفت، هي الآن قادة الذكاء الاصطناعي، وإذا لم يكن الكونغرس قادرًا على تنظيم وسائل التواصل الاجتماعي بنجاح، سيكون تحديًا له التحرك سريعًا لمعالجة المخاوف بشأن ما أسمته سويشر “سباق تسلّح” الذكاء الاصطناعي.
المقارنات بين قوانين الذكاء الاصطناعي ووسائل التواصل الاجتماعي ليست أكاديمية فقط، فبإمكان تكنولوجيا الذكاء الاصطناعي الجديدة أن تأخذ من مشكلات المواقع الموجودة بالفعل مثل فيسبوك ويوتيوب وتوتير، وتحوّلها إلى بحر من المعلومات المغلوطة، حيث أصبح من الصعب بشكل متزايد التفرقة بين الحسابات البشرية وحسابات الذكاء الاصطناعي.
حتى لو نجحت الحكومة في سنّ قوانين جديدة للتواصل الاجتماعي، فربما سيكون لا طائل منها في وجه فيضان محتوى الذكاء الاصطناعي الخبيث.
من بين اللجان الكثيرة التي وُجدت في المؤتمر، كانت هناك لجنة نقاش بعنوان “كيف يبني الكونغرس سياسات الذكاء الاصطناعي من الصفر؟”، لكن بعد انتظار دام 15 دقيقة، قيل للحضور إن لجنة النقاش أُلغيت لأن المشاركين فيها ذهبوا إلى مكان خاطئ.
اتضح في النهاية أنه وقع سوء تفاهم بين المؤتمر ومنظمي تلك اللجنة، وكان هذا تطورًا غير مشجّع بالنسبة إلى حاضري المؤتمر، والذين كانوا يأملون في أي إشارة تدلّ على كفاءة العاملين في الحكومة.
المصدر: بي بي سي