ترجمة وتحرير نون بوست
هل سبق أن استخدمت مساعد جوجل أو سيري من آبل أو أليكسا من أمازن لاتخاذ قرارات نيابة عنك؟ ربما سألته عن الأفلام الجديدة ذات التقييمات الجيدة وربما سألته أن يوصي لك بمطعم رائع في حيك.
يتعرض الذكاء الاصطناعي والمساعدون الافتراضيون للتحسين باستمرار، وربما يصبح بإمكانهم قريبًا تحديد مواعيدك وتقديم نصائح طبية، ورغم أنه ما زال هناك أميال طويلة أمام تقنيات الذكاء الاصطناعي لتطوير مهاراتها الاجتماعية لتتوافق معنا، فإن بعض تقنيات الذكاء الاصطناعي أظهرت فهمًا مذهلًا للغة وبإمكانها إنهاء مهام تفاعلية معقدة نسبيًا.
في العديد من العروض عام 2018 تمكن الذكاء الاصطناعي لجوجل من حجز موعد في مطعم وموعد لقص الشعر دون أن يدرك موظفو الاستقبال أنهم لا يتحدثون مع شخص بشري، من المحتمل أن تصبح قدرات الذكاء الاصطناعي التي طورتها شركات التكنولوجيا العملاقة مثل أمازون وجوجل أكثر قابلية للتأثير علينا في المستقبل.
ما الذي وجدناه مقنعًا بالفعل؟
لقد وجدت أنا وزميلي آدم دوهاشك أن رسائل الذكاء الاصطناعي تصبح أكثر إقناعًا عندما تسلط الضوء على كيفية تنفيذ إجراء ما بدلًا من السبب، فعلى سبيل المثال يقبل الناس على وضع كريم الحماية من الشمس عندما يشرح لهم الذكاء الاصطناعي كيف يضعونه قبل الخروج بدلًا من إخبارهم عن سبب استخدامه وضرورة ذلك.
لا يصدق الناس بشكل عام أن هناك آلة يمكنها أن تفهم أهداف البشر ورغباتهم، فعند النظر إلى “ألفاجو” وهي خوارزمية مصممة كي تلعب لعبة “جو”، نجد أن قليلًا من الناس يقولون إن الخوارزمية يمكنها أن تفهم لما تعد اللعبة ممتعة وما المغزى من أن تصبح بطلًا فيها، بدلًا من ذلك يعتقد الكثيرون أنها مجرد خوارزمية مبرمجة مسبقًا لتتحرك على لوحة اللعب.
يشير بحثنا إلى أن الناس تجد توصيات الذكاء الاصطناعي أكثر إقناعًا في المواقف التي يُظهر فيها الذكاء الاصطناعي خطوات سهلة لكيفية بناء تأمين صحي شخصي أو كيفية تجنب السيارات ذات العيوب المصنعية أو كيفية اختيار مضرب التنس المناسب، بدلًا من سماعه يتحدث عن أهمية القيام بأي من ذلك من الناحية الإنسانية.
هل يملك الذكاء الاصطناعي إرادةً حرةً؟
يؤمن معظم الناس أن البشر يملكون إرادةً حرةً، فنحن نثني على الشخص الذي يساعد الآخرين لأننا نعتقد أنه يفعل ذلك من تلقاء نفسه، كما نعاقب الأشخاص الذين يسببون الضرر للآخرين، الأكثر من ذلك أننا نخفف العقوبة الجنائية إذا كان الشخص لا يملك إرادةً حرةً مثل مرضى انفصام الشخصية.
لكن هل يعتقد الناس أن الذكاء الاصطناعي يملك إرادةً حرةً؟ لقد أجرينا بحثًا لاكتشاف ذلك، منحنا أحدهم 100 دولار وعرضنا عليه أن يقسمها معك وسوف يحصل هو على 80 دولارًا بينما تحصل أنت على 20 دولارًا، إذا رفضت العرض فلن يحصل أي منكم على شيء.
قد يبدو الحصول على 20 دولارًا أفضل من لا شيء، لكن الأبحاث السابقة تشير إلى رفض العرض بنسبة كبيرة لأننا نعتقد أنه غير عادل ومن المفترض أن نحصل على 50 دولارًا.
لحماية المستهلكين يجب أن نفهم متى يكون الشخص عرضة للتلاعب بواسطة الذكاء الاصطناعي، ويجب على الحكومات أن تضع الأمر في اعتبارها عند النظر في تنظيم الذكاء الاصطناعي
لكن ماذا لو كان صاحب العرض هو الذكاء الاصطناعي؟ في مشروع بحثي لم يُنشر بعد وجدت أنا وزملائي أن نسبة الرفض تتناقص بشكل بارز، بمعنى آخر يميل الناس بشكل أكبر لقبول هذا العرض غير العادل إذا كان مقدمًا من الذكاء الاصطناعي.
يرجع ذلك إلى أنهم يعتقدون أن الذكاء الاصطناعي مطوّر لخدمة البشر وليس لديه أي نوايا خبيثة لاستغلالنا، إنها فقط خوارزمية لا تملك إرادةً حرةً لذا ربما نقبل بـ20 دولارًا فقط، هذه الحقيقة مثيرة للقلق لأنها تعني أن هذه الظاهرة قد تُستخدم بشكل خبيث.
فعلى سبيل المثال قد تقوم شركة قروض الرهن العقاري بإضافة فائدة عالية غير عادلة بوضعها في إطار أن الخوارزميات قامت بحسابها، أو أن تقوم شركة تصنيع بخداع العمل للقبول بأجور غير عادلة وإخبارهم أنه قرار اتخذه جهاز الحاسب.
لذا لحماية المستهلكين يجب أن نفهم متى يكون الشخص عرضةً للتلاعب بواسطة الذكاء الاصطناعي، ويجب على الحكومات أن تضع الأمر في اعتبارها عند النظر في تنظيم الذكاء الاصطناعي.
مفاجأة! نحن مستعدون لإخبار الذكاء الاصطناعي أسرارنا
في عمل آخر لم يُنشر بعد، وجدت وزملائي أن الناس يميلون إلى الكشف عن معلوماتهم الشخصية والتجارب المحرجة بحرية أكبر للذكاء الاصطناعي عن البشر، أخبرنا المشاركين أن يتخيلوا أنهم عند الطبيب بسبب التهاب في المسالك البولية، وقسمنا المشاركين إلى مجموعتين، نصفهم تحدث مع طبيب بشري والنصف الآخر مع طبيب الذكاء الاصطناعي.
أخبرنا المشاركين أن الطبيب سيسأل بعض الأسئلة لتحديد العلاج الأفضل والأمر يعود إليكم في مقدار مشاركة المعلومات الشخصية، كشف المشاركون عن المزيد من المعلومات الشخصية لطبيب الذكاء الاصطناعي أكثر من الطبيب البشري خاصة فيما يتعلق بالأسئلة المحرجة بشأن الألعاب الجنسية والواقي الذكري وأي أنشطة جنسية أخرى.
يرجع ذلك إلى أن الناس يعتقدون أن الذكاء الاصطناعي لن يحكم على سلوكنا بينما يفعل البشر ذلك، في الواقع سألنا المشاركين عن مدى قلقهم من الحكم السلبي عليهم ووجدنا أن هذا القلق كان الآلية التي تحدد مقدار ما يفصحون عنه.
يبدو أننا نشعر بحرج أقل عندما نتحدث مع الذكاء الاصطناعي، الأمر مثير لأن الكثير من الناس لديهم مخاوف كبيرة بشكل الذكاء الاصطناعي والخصوصية، ومع ذلك ربما يميلون إلى مشاركة المزيد من التفاصيل الشخصية مع الذكاء الاصطناعي.
ماذا لو أصبح للذكاء الاصطناعي إرادة حرة؟
درسنا أيضًا الجانب الآخر وماذا يحدث عندما يعتقد الناس أن الذكاء الاصطناعي يملك إرادةً حرةً؟ عندما منحنا الذكاء الاصطناعي خصائص بشرية أو اسم بشري أصبح الناس أكثر اقتناعًا بأن الذكاء الاصطناعي يملك إرادة حرة.
لهذا الأمر آثار عديدة:
– يمكن للذكاء الاصطناعي إقناع الناس بسؤال “لماذا” لأن الناس يعتقدون أن الذكاء الاصطناعي الشبيه بالبشر قد يصبح قادرًا على فهم الأهداف والدوافع البشرية.
– ستقل نسبة قبول عرض الذكاء الاصطناعي لأنه هذا الشبيه بالبشر قد يكون له دوافع خاصة وقد تكون استغلالية.
– يبدأ الناس في الشعور بالحكم عليهم بواسطة الذكاء الاصطناعي الشبيه بالبشر ويشعرون بالإحراج ويفصحون عن معلومات شخصية أقل.
– يبدأ الناس في الشعور بالذنب عند إلحاق الضرر بالذكاء الاصطناعي الشبيه بالبشر ويتصرفون بشكل لطيف معه.
من المحتمل أن نرى المزيد من أنواع الذكاء الاصطناعي المختلفة والروبوتات في المستقبل، ربما يقومون بالطبخ والخدمة وبيع السيارات ورعايتنا في المستشفيات وحتى الجلوس معنا على طاولة الطعام، لذا من الضروري أن نفهم كيف يؤثر الذكاء الاصطناعي على قراراتنا حتى نتمكن من تنظيمه لحماية أنفسنا من الأضرار المحتملة.
المصدر: ذي كونفرسايشن