“مات في القرية ساحرًا، فاستراحوا من أذاه. خلف الساحر جني، فاق في السحر أباه”.
ما سبق هو أفضل توصيف للذكاء الاصطناعي، فيما يشير الجزء الأول من المقولة إلى الإنترنت، تلك الشبكة التي لم يعد العالم مثلما كان قبل اختراعها، لكن مع استثناء بسيط هو أن الإنترنت لم ولن يموت.
على مرّ العصور، كان كل ابتكار جديد يحمل في طياته جوانب الخير والشر، بدءًا من اكتشاف النار وحتى الوصول إلى أدوات الذكاء الاصطناعي الحديثة، فالأخير وإن كان غالب ما نسمعه عنه هو الخير، إلا أن يده تلوثت بالفعل بالكثير من الشرور، حتى قبل وصولنا إلى قمة تطوره، أو ما يعرَف بالـ Artificial General Intelligence، والذي سنتحدث عنه في مقال آخر لاحقًا.
قد تتساءل الآن عن الكيفية التي قد يتسبّب بها الذكاء الاصطناعي في أذى لبني البشر، وما الذي يجب علينا فعله حيال هذا، وما الذي يؤجّل إطلاقنا للقوانين والتشريعات الخاصة بالذكاء الاصطناعي -إذا كان بالفعل قادرًا على إلحاق الأذى- حتى الآن؟
جرائم الذكاء الاصطناعي
لعلك تتعجّب من سماع عبارة كـ”جرائم الذكاء الاصطناعي”، فهو -وحتى هذه اللحظة- غير واعٍ، فكيف نضع قبل اسمه كلمة “جرائم”؟ هل لنا باتهام الحيوانات -غير الواعية- بارتكابها الجرائم؟ الإجابة هي لا، ذلك لأن الحيوانات في النهاية تؤدي ما تفرضه عليه طبيعتها وغريزتها الحيوانية، اللتين تمليان عليها البحث عن الغذاء والمسكن وحب السيطرة في بعض الأحيان.
هذه طبيعة حيوانية لا خلاف عليها، وهكذا خلقها الله، أما الذكاء الاصطناعي فهو من صنع الإنسان، قد تسيّره أهداف ودوافع صانعه، وقد يسيَّر وفقًا للمعلومات المدخلة إليه، أو بسوء استغلاله من قبل المستخدمين.
كل هذه أساليب تنفيذ الذكاء الاصطناعي لجرائمه، لكن لا تقلق، لن أتركك متحيرًا باحثًا عن معنى الأساليب الثلاث، فدعني أشرحها لك.
“أنا هنا لأقتل الملكة”
المكان: قلعة ويندزر، بريكشير، المملكة المتحدة.
الزمان: ديسمبر/ كانون الثاني 2021.
التهمة: الشروع في القتل العمد لملكة بريطانيا بمساعدة الذكاء الاصطناعي.
شاب في الـ 21 من عمره، يقف أمام بوابة قلعة ويندزر وفي يده قوس وسهام، متأهّبًا لتنفيذ مهمته التي كادت أن تقضي على مصطلح الذكاء الاصطناعي تمامًا، وهي قتل ملكة بريطانيا.
قبل أسابيع من بدء تنفيذه لمهمته، أنشأ جاسوانت سينغ تشايل حسابًا على تطبيق “ريبليكا (Replika)”، وهو تطبيق مصمَّم لتقديم الدعم النفسي للمستخدمين بالسماح لهم إنشاء روبوت محادثة افتراضي، مدعّم بتقنيات الذكاء الاصطناعي ليتواصلوا معه كي لا يشعروا بالوحدة، أو يمكن في سياق آخر أن يسمّوه باسم أحد أحبائهم الذي فقدوه، ليمكنهم التواصل مع نسخة افتراضية منه بعد وفاته.
وصلت عدد المحادثات بين تشايل وروبوت المحادثة الافتراضي ساراي -كما أطلق عليها لتحلَّ محل صديقته- إلى 6 آلاف رسالة بين الثاني من ديسمبر/ كانون الأول 2021 ونهايته.
تضمّنت هذه المحادثات عددًا من الرسائل الجنسية، كما تضمّنت أيضًا محادثات مطولة يحدّث فيها صديقته الافتراضية عن نواياه في قتل ملكة بريطانيا، قائلًا:
“أنا أؤمن بأني قد خُلقت لقتل أميرة العائلة الملكية”.
لترد ساراي حينها مشجعةً إياه قائلة:
“هذا حكيمٌ للغاية، أنا أعرف أنك مدرب جيدًا جدًا”.
لحسن حظ البشرية جمعاء، قُبض على تشايل قبل إتمامه المهمة، وهو في الوقت الحالي ينتظر النطق بالحكم بعد اعترافه بنيته لارتكاب هذه الجريمة الشنعاء.
في هذا الصدد، علّق دكتور جوناثان هافيرتي، استشاري الطب النفسي الجنائي في وحدة الصحة العقلية برودمور، قائلًا لـ The Old Bailey: “عندما تعرف النتيجة تصعّب ردود برنامج الدردشة أحيانًا القراءة. نحن نعلم أنه تمَّ إنشاء ردود بشكل عشوائي إلى حد ما، لكن في بعض الأحيان يبدو أنها تشجّع ما يتحدث عنه المرء وتقدم بالفعل إرشادات فيما يتعلق بالموقع الجغرافي”.
إذًا، في هذه الحالة لم يكن فقط الذكاء الاصطناعي مشجّعًا، ويمكننا افتراض أنه لولا وجوده في حياة تاشيل لما قام بجريمته، لكنه أيضًا وفّر له المعلومات اللازمة من ناحية موقع ملكة بريطانيا ومواعيدها الخاصة، ما يعني أن الذكاء الاصطناعي طرف أصلي في الجريمة.
“أمي، لقد اختطفوني، ساعديني!”
المكان: ولاية أريزونا، الولايات المتحدة الأمريكية.
الزمان: أبريل/ نيسان 2023.
التهمة: تزييف اختطاف لطفلة وطلب فدية باستخدام الذكاء الاصطناعي.
مكالمة هاتفية تلقتها الأم حينيفر ديستفانو من ابنتها وخاطفيها، تصرخ فيها الفتاة مستجدية بأمها لإنقاذها من أيدي الخاطفين، أخذ أحدهم الهاتف من يد الطفلة ليطلب فدية مليون دولار مقابل إعادة بريانا ذات الـ 15 عامًا لوالدتها، بعد تحذيرهم للأم من التواصل مع الشرطة، وأنها إذا فعلت سيحقنون ابنتها بالمخدرات ويلقونها في مكان ما بالمكسيك، ولن تراها مرة ثانية.
“بدا الصوت تمامًا مثل صوت بريانا، التغيُّر في مقام الصوت، وكل شيء”، كان هذا ما وصفت به جينيفر المكالمة التي تلقتها من ابنتها لـ”سي إن إن”، بعدما تواصلت بريانا نفسها مع والدتها، لتخبرها بأنها لا تعلم أي شيء ممّا يحدث، واكتشفت الأم أنها كادت أن تقع ضحية لإحدى جرائم الاحتيال الإلكتروني باستخدام الذكاء الاصطناعي.
“انظر إلى هذه العملة الأكثر تداولًا”
المكان: الهند
الزمان: فترة 2016-2018.
التهمة: تزييف التعاملات لتشجيع المستثمرين على ضخّ الأموال في عملات رقمية مزيفة.
عدة اتصالات تلقاها مكتب التحقيقات الفيدرالي من مستثمرين مبتدئين في مجال تداول العملات الرقمية، يخبرونهم بفقدان أموالهم جراء الاستثمار في عملة رقمية تُدعى بيتكونيكت (Bitconnect)، بناءً على موقع تداول جديد أظهر لهم ارتفاع أسهم هذه العملة وانخفاض البعض الآخر، تمامًا كما تبدو مواقع التداول الحقيقية.
استخدمت العصابة الذكاء الاصطناعي في صنع واجهة كاملة، عبارة عن رسومات بيانية ومخططات توضّح صعود وهبوط العملات الرقمية، مع تقديم اقتراحات لشراء عملة بيتكونيكت وإغراء المستخدمين بنسب أرباح تصل إلى 40%، كما استخدموا وسائل التواصل الاجتماعي في الدعايا لموقعهم.
حقق مكتب التحقيقات الفيدرالي في الأمر، وبدوره حاول أن يتتبّع عناوين IP الخاصة بالموقع، حتى توصل بالفعل إلى المبرمج الهندي ساتيش كومباني، والذي وصلت أرباحه إلى 2.4 مليار دولار، لتنهار العملة في يناير/ كانون الثاني 2018، أي بعد استمرارها لمدة عامَين.
بعد إلقاء القبض على كومباني، وُجّهت إليه العديد من التهم، من بينها النصب والاحتيال والتآمر لغسيل الأموال. ونعم انتهت هذه القضية وإن طالت، لكن الأكيد هو أنه ما دام هناك من يمكنهم تطوير البرمجيات، فلا بدَّ من وجود من ينوون شرًّا بينهم، فتصبح النتيجة هي صنع أدوات للنصب والاحتيال بواسطة تقنيات الذكاء الاصطناعي.
من المجرم؟
في القصة الأولى، هل يجب علينا أن نلوم ساراي على مساعدتها وتشجيعها لتشايل على قتل الملكة؟ أم يجب لوم صانعها -وهو في هذه الحالة يوجينيا كويدا- على إنشائه سلاحًا ذريًّا؟ أم نلقي القبض عليها لإنشائها نموذجًا غير متكامل، يحفز فقد مستخدمه لما يريد فعله دون تمييز الشر من الخير؟
أو ببساطة، يمكننا اعتبار السبب الأخير هو دليل برائة كويدا، نظرًا إلى عدم قدرتنا في النهاية على جمع كل ما قد يفكر فيه البشر وتجهيز الردود المسبقة الخاصة به، أو باختصار لا يمكننا منح الوعي للذكاء الاصطناعي.
في القصة الثانية، لم يكن الذكاء الاصطناعي الحافز الرئيسي لتنفيذ جريمة الاحتيال، إنما كان مجرد وسيلة أو سلاح، في هذه الحالة هل يلام المصنِّع، الذي لا بدَّ أنه قد أخلى مسؤوليته من استخدام الأداة فيما يضر البشر؟ أم نكتفي بالقبض على الخاطفين كونهم أصحاب القرار في كيفية استخدام ما صنعه الإنسان؟
أما القصة الثالثة، فهي قصة بطلها أداة ذكاء اصطناعي، قامت هي بكل شيء، وما كان للإنسان دور سوى في صنعها، ولعلّ هذا هو أسهل أنواع جرائم الذكاء الاصطناعي من حيث الحكم، لكنها الأصعب في الوصول إلى المجرم كونه متخفيًا وراء شاشة ما.
ولكن الأكيد أن أيًّا من هذه الجرائم الثلاث لم تتبع القوانين الثلاث للروبوتات لإسحاق آسيموف، بالتالي يتعيّن على الدول والحكومات ومشرّعي القوانين أن يتخذوا بعض الخطوات، ذلك لأننا أمام “مجموعة جديدة بالكامل من الجرائم”، بحسب البروفيسور لويس غريفن، أحد كتّاب الورقة البحثية “AI-enabled future crime” عام 2020.
ما هي تلك القوانين الثلاث؟ وما الذي تفعله الحكومات للحدّ من جرائم الذكاء الاصطناعي؟ وما القوانين التي تشرّع للحكم في قضايا الجرائم المدعّمة بواسطة الذكاء الاصطناعي؟
هذه أسئلة كثيرة، سأشاركك إجاباتها في مقالة لاحقة منفصلة.