قامت مايكروسوفت بإيقاف عمل روبوتها المسمى “تاي” الذي يستخدم تقنية الذكاء الاصطناعي والذي كانت قد أطلقته مؤخرًا، حيث كانت مهمته الرد على التغريدات على التويتر والأحاديث التي تجري على تطبيقات (GroupMe) و(KIK).
تم إيقاف تاي بسبب مخاوف من عدم قدرته على التمييز عندما كان يقوم بالإدلاء بتصريحات مسيئة أو عنصرية، وبالطبع، لم يكن قد تم تصميم هذا الروبوت ليتميز بالعنصرية، ولكنه “تعلم” من الأشخاص الذين كان يتفاعل معهم، وبطبيعة الحال، وبالنظر إلى الإنترنت، فإن أول الأشياء التي علمها مستخدمو الإنترنت لـ “تاي” كانت كيف يكون عنصريًا، وكيفية التعبير عن آراء سياسية تحريضية أو مسيئة، ولكن مايكروسوفت تعمل الآن على “إجراء تعديلات” لتاي في ضوء هذه المشكلة.
الجدير بالذكر أن تاي هو مشروع يستخدم تقنية الذكاء الاصطناعي، يمكن التحدث إليه عبر الإنترنت، تم إنشاؤه من قِبل تكنولوجيا مايكروسوفت وفريق بينغ للبحث، وذلك في محاولة لإجراء بحوث حول فهم المحادثات.
يمكن لتاي أداء العديد من المهام، مثل إخبار المستخدمين النكات، أو وضع التعليقات على الصور التي يتم إرسالها له، لكنه مصمم أيضًا لتخصيص تفاعله مع المستخدمين، وذلك من خلال إجابته على الأسئلة أو حتى تكرار كلام المستخدمين وإرساله إليهم مرة أخرى.
يمكن لـتاي في كثير من الأحيان أن يكرر التغريدات العنصرية في تعليقاته الخاصة، وهذا ما كان يمثل إزعاجًا كبيرًا أيضًا، وبغض النظر عن المحتوى نفسه، فقد تم تطوير ردود تاي من قِبل موظفين كان من بينهم كوميديين ارتجاليين، وهذا يعني أنه حتى عندما كان الروبوت يقوم بنشر تغريدة تتضمن إهانات عنصرية هجومية، فإنه كان يقوم بذلك بنوع من اللامبالاة والسخرية.
على الرغم من أن مايكروسوفت قامت بحذف بعض التغريدات التي اعتبرتها مسيئة جدًا، إلّا أن موقع الإنترنت الذي يسمى “Socialhax.com” كان قد جمع لقطات من العديد من هذه التغريدات قبل أن يتم إزالتها، وكثيرًا من هذه التغريدات كانت تشير إلى هتلر، وإنكار المحرقة، ودعم خطط ترامب لبناء جدار عازل.
هذا ليس ما كانت تأمله مايكروسوفت بالضبط عندما قامت بتطوير روبوت للدردشة يصل إلى مستخدمين الألفية عبر الشبكات الاجتماعية.
أشار البعض إلى أن المنحى الذي انحرفت إليه المحادثة بين مستخدمي الإنترنت وتاي يدعم خاصية في الإنترنت يطلق عليها اسم “قانون غودوين”، وهو يقول بأنه كلما طالت المناقشات عبر الإنترنت، زادت احتمالية ظهور مقارنة تنطوي على النازيين أو على هتلر.
ولكن ما تظهره هذه التجربة حقًا، هو أنه في حين أن التكنولوجيا ليست جيدة أو شريرة، فإن مسؤولية التأكد من أن هذه التكنولوجيات لن تنعكس سلبًا على البشر تقع على المهندسين، وهذا يعني بالنسبة لخدمات الإنترنت، أن يتم وضع تدابير لمكافحة وفلترة الإساءة قبل دعوة الجماهير للانضمام إلى هذه الخدمة، أما بالنسبة لشيء مثل تاي، فلا يمكنك تخطي جزء تعليمه الأشياء التي “لا” يجب عليه قولها.
Technology is neutral. But people are not. @Microsoft's AI program needs to consider context & values https://t.co/K1iSVZeNOK
— Chi Onwurah 💙 (@ChiOnwurah) March 24, 2016
يبدو بأن مايكروسوفت أصبحت على علم بمشكلة تاي مع العنصرية، وقامت بإسكات الروبوت في يوم الأربعاء، بعد 16 ساعة من الأحاديث، وذلك من خلال تغريدة أعلن فيها الروبوت “تاي” عبر التويتر بأنه سينهي الأحاديث لهذه الليلة، ولكنه سيعود قريبًا.
من جهته أكد المتحدث باسم مايكروسوفت بأنه قد تم إيقاف العمل بتاي في الوقت الحاضر، لإجراء التعديلات حيث قال: “روبوت الدردشة الذي يستخدم الذكاء الاصطناعي (تاي) هو مشروع تعلم آلي، مصمم كي يشارك البشر فيه، وبقدر ما هو تجربة اجتماعية وثقافية، هو أيضًا تجرة تقنية، ولكن للأسف، في غضون الـ24 ساعة الأولى من إطلاقه عبر الإنترنت، أصبحنا ندرك أن هناك جهودًا منسقة من قِبل بعض المستخدمين لإساءة استخدام مهارات التعليق لدى تاي وجعله يرد بطرق غير لائقة، ونتيجة لذلك، أوقفنا تاي عن الخدمة حاليًا وبدأنا نجري بعض التعديلات”.
https://twitter.com/TayandYou/status/712856578567839745?ref_src=twsrc%5Etfw