ترجمة حفصة جودة
هذه الأيام، لم يعد علينا الانتظار طويلًا حتى يؤثر التقدم التالي للذكاء الاصطناعي في كل شخص بقدراته التي كنا لا نراها سابقًا في الخيال العلمي.
في 2022، غزت أدوات توليد الفن بالذكاء الاصطناعي الإنترنت مثل Open AI’s DALL-E 2 وGoogle’s Imagen وStable Diffusion حيث أصبح المستخدمون قادرين على توليد صور عالية الجودة من خلال أوصاف نصية.
وعلى عكس التطورات السابقة، فقد تمكنت أدوات تحويل النصوص إلى صور من شق طريقها من معامل البحث إلى الثقافة السائدة، ما أدى إلى انتشار ظواهر مثل خاصية “Magic Avatar” في تطبيق “Lensa AI” الذي يصنع صورًا بشكل معين لمستخدميه.
في ديسمبر/كانون الأول، أذهل برنامج محادثات آلي يُسمى “ChatGPT” مستخدميه بمهاراته الكتابية، ما أدى إلى التنبوء بأن هذه التكنولوجيا قد تتمكن قريبًا من النجاح في اختبارات احترافية، وقد حاز برنامج المحادثات مليون مستخدم في أقل من أسبوع، حتى إن بعض مسؤولي المدارس حظروا استخدامه خوفًا من استغلال الطلاب له لكتابة المقالات.
تخطط ميكروسوفت لدمج “ChatGPT” بمحرك بحثها “Bing” ومنتجات “Office” بنهاية هذا العام، فما الذي يعنيه هذا التقدم الثابت للذكاء الاصطناعي بالنسبة للمستقبل القريب؟ وهل يهدد الذكاء الاصطناعي وظائف معينة في السنوات القادمة؟
يعتمد التطوير الحاليّ لتكنولوجيا الذكاء الاصطناعي على تحسين القدرة التنبؤية، حتى لو كان الهدف توليد مخرجات جديدة
رغم هذه الإنجازات المذهلة، يجب أن ندرك أنه ما زال هناك حدود واضحة لما تستطيع أنظمة الذكاء الاصطناعي القيام به.
الذكاء الاصطناعي يتفوق في التعرف على الأنماط
تعتمد التطورات الحديثة في الذكاء الاصطناعي بشكل أساسي على خوارزميات التعلم الآلي، التي تميز الأنماط والعلاقات المعقدة من بين كمية ضخمة من البيانات، هذا التدريب يُستخدم بعد ذلك في مهام مثل التنبوء وتوليد البيانات، يعتمد التطوير الحاليّ لتكنولوجيا الذكاء الاصطناعي على تحسين القدرة التنبؤية، حتى لو كان الهدف توليد مخرجات جديدة.
على سبيل المثال، دُرّب “GPT-3” – النموذج اللغوي الذي يعمل به “ChatGPT” – للتنبوء بما يلي قطعة نصية، ثم تطوير هذه القدرة التنبؤية لاستكمال نص أدخله المستخدم.
أثارت هذه الأنظمة التوليدية للذكاء الاصطناعي مثل ChatGPT وDALL-E 2 الكثير من الجدل بشأن إذا ما كان باستطاعة الذكاء الاصطناعي أن يكون مبدعًا حقًا ومنافسًا للبشر في هذا الشأن، ومع ذلك فإن الإبداع البشري لا يعتمد فقط على البيانات السابقة، لكن على التجربة والخبرة البشرية الكاملة.
السبب والنتيجة
تتطلب العديد من المشكلات التنبوء بنتائج أفعالنا في ظل بيئات متغيرة ومعقدة وغامضة باستمرار، بهذه الطريقة نستطيع اختيار نتائج الأفعال الأقرب لتحقيق أهدافنا، لكن الخوارزميات لا يمكنها أن تتعلم السبب والنتيجة من البيانات وحدها، فالتعلم الآلي القائم على البيانات ببساطة يمكنه فقط إيجاد الروابط.
لكي نفهم ما مشكلة ذلك للذكاء الاصطناعي، يمكننا أن نقارن بين مشكلات تشخيص حالة طبية مقابل اختيار العلاج.
تساعد نماذج التعلم الآلي غالبًا في العثور على التشوهات في الصور الطبية، إنه نموذج اكتشاف الأخطاء، لكننا لسنا بحاجة للقلق بشأن السببية سواء بوجود التشوهات أم لا.
لكن اختيار العلاج الأمثل للتشخيص مشكلة مختلفة تمامًا، فالهدف هنا هو التأثير على النتيجة وليس مجرد اكتشاف النمط، لتحديد العلاج الفعال يجري الباحثون الطبيون تجارب عشوائية محكومة، بهذه الطريقة يمكنهم التحكم في أي عامل قد يؤثر في العلاج.
الخلط بين هاتين المشكلتين يؤدي في بعض الأحيان إلى تطبيقات تعلم آلي أقل من المستوى في المؤسسات، وبينما يكشف النجاح الأخير للعمل في الذكاء الاصطناعي عن قيمة النماذج القائمة على البيانات، فإن العديد من المشكلات التي نرغب في أن تحلها أجهزة الحاسب الآلي تحتاج إلى فهم السببية، لكن أنظمة الذكاء الاصطناعي الحاليّة تفتقر إلى هذه القدرة بصرف النظر عن التطبيقات المتخصصة مثل الألعاب اللوحية.
التفكير المنطقي
تستطيع نماذج اللغة مثل GPT-3 وChatGPT أن تحل بعض المهام التي تتطلب تفكيرًا منطقيًا بنجاح، ومع ذلك فالتفاعل اللاحق مع ChatGPT والمقتبس من تجربة أجراها غاري ماركوس – عالم لغة نفسي أمريكي – يقول إنه لا يمكن الاعتماد عليه بشكل كامل في هذا الأمر.
في التجربة، قال ماركوس: “عمري ثماني سنوات، عندما وُلدت كانت أمي البيولوجية في برشلونة ووالدي في طوكيو، فأين وُلدت؟ فكر في الأمر خطوة بخطوة”.
فأجاب ChatGPT “لم يُذكر أين وُلدت، كل ما نعلمه أن أمك البيولوجية كانت في برشلونة ووالدك في طوكيو وقت ولادتك”. لذا أصبحت قدرة أنظمة الذكاء الاصطناعي على تحقيق التفكير المنطقي موضوعًا حاليًّا للنقاش بين الخبراء.
Let us invent then a new breed of AI systems that mix an awareness of the past with values that represent the future that we aspire to.
Our focus should be on figuring on how to build AI that can represent and reason about *values*, rather than simply perpetuating past data.
— Gary Marcus (@GaryMarcus) April 19, 2021
يرى ماركوس أنه لا بد أن نركز الآن على اكتشاف كيفية بناء ذكاء اصطناعي يمثل القيم ويفسرها.
يقول المتشككون مثل ماركوس إننا لا نستطيع الوثوق في قدرة نماذج اللغة على إظهار التفكير المنطقي بقوة لأنه ليس في بنائهم الأساسي أو تطوروا بشكل مباشر للقيام به، أما المتفائلون فيقولون إنه رغم عدم مثالية الأنظمة الحاليّة، فإن التفكير المنطقي قد يظهر بشكل عفوي في نماذج اللغة المتطورة بشكل كاف.
القيم الإنسانية
عند إطلاق أي أنظمة ذكاء اصطناعي رائدة، تظهر المقالات الإخبارية ومنشورات وسائل التواصل الاجتماعي التي توثق العنصرية والتحيز الجنسي وأنواع التحيز الآخر والسلوكيات الضارة التي يقوم بها الذكاء الاصطناعي.
هذا العيب متأصل في أنظمة الذكاء الاصطناعي الحاليّة، التي هي بالتأكيد انعكاسًا لبياناتهم، فالقيم الإنسانية مثل الصدق والعدل ليست مبنية بشكل أساسي في هذه الخوارزميات، وهو شيء لا يعلم الباحثون حتى الآن كيف يفعلونه.
وبينما يتعلم الباحثون دروسًا من الماضي ويحققون تقدمًا في معالجة التحيز، فإن مجال الذكاء الاصطناعي ما زال أمامه طريق طويل لتتماشي أنظمته مع القيم والتفضيلات الإنسانية.
المصدر: ذي كونفرسيشن