ترجمة وتحرير: نون بوست
تمام مثل اختراع الورق والطباعة والفولاذ والعجلة، يمثل الذكاء الاصطناعي المعتمد على الحوسبة تكنولوجيا ثورية، يمكنها أن تغيير طريقة ممارستنا للعمل والحب واللعب. وهي بدأت فعلا في إحداث هذه التأثيرات بطرق قد لا نلاحظها.
وبينما تضخ شركات فيسبوك وأبل وغوغل مليارات الدولارات في تطوير الذكاء الاصطناعي، بدأ ينمو مجال دراسات أكاديمية جديد كليا يعنى بالأخلاق، متأثرا بالتعاليم الاجتماعية الكاثوليكية والمفكرين من أمثال العالم بيار تيلار دوشردان. ويهدف هذا المجال البحثي إلى دراسة التبعات الأخلاقية، واحتواء الضرر الذي قد تسببه هذه التكنولوجيا، ودفع شركات التقنية لإدماج المبادئ الأخلاقية مثل احترام الخصوصية وتوخّي الإنصاف في نموذجها الربحي.
ويقول براين غرين، المتخصص في أخلاقيات الذكاء الاصطناعي في جامعة سانتا كلارا في كاليفورنيا: “هنالك عدد كبير من الناس الذين باتوا فجأة مهتمين بأخلاقيات الذكاء الاصطناعي، لأنهم فهموا أنهم بصدد اللعب بالنار. بل إن هذه التكنولوجيا هي أكبر حدث في تاريخ البشرية منذ اكتشاف النار”.
ويتضمن مجال أخلاقيات الذكاء الاصطناعي بشكل عام فرعين: الأول هو الفرع الفلسفي وأحيانا الديني، الذي يبحث في كيفية تغيير الذكاء الاصطناعي لمصيرنا ودورنا كبشر في هذا الكون، والفرع الثاني هو مجموعة من الأسئلة العملية حول تأثير قوة الذكاء الاصطناعي على المنتجات الاستهلاكية، مثل الهواتف الذكية والطائرات المسيّرة وخوارزميات شبكات التواصل الاجتماعي.
هنالك أشكال من الذكاء الاصطناعي المحدود موجودة فعلا في حياتنا: مثل خرائط غوغل، والبرامج الصوتية مثل المساعد الشخصي “سيري”
ويهتم الفرع الأول بما يمكن تسميته الذكاء العام الاصطناعي، الذي يصف قوة الذكاء الاصطناعي التي لا تقوم فقط بمحاكاة التفكير البشري، بل تتفوق عليه من خلال الجمع بين قدرات الحوسبة ومهارات الإنسان، على غرار التعلم من الأخطاء، وممارسة الشك، وحب الاطلاع على الأشياء الغامضة.
وقد تم اعتماد كلمة رائجة هي “التفرّد”، لوصف اللحظة التي تصبح فيها الآلات أذكى وربما أكثر قوة من البشر. هذه اللحظة، التي يمكن أن تمثل قطيعة واضحة مع الروايات الدينية التقليدية حول الخلق، لها تبعات فلسفية ودينية شديدة التعقيد.
ولكن قبل الخوض في كل هذه الاحتمالات، بما أنه ليس من الواضح تماما أن هذا السيناريو سيحدث، دعونا نتحدث حول فرع أخلاقيات الذكاء الاصطناعي الذي يهتم أكثر بالمشاكل العملية، مثل السؤال: هل نقبل أن يعرف هاتفنا متى نحتاج لشراء البيتزا؟
وتقول شانون فالور، أستاذة الفلسفة التي تدرّس هي أيضا في جامعة سانتا كلارا: “في الوقت الحالي تعد مرحلة “التفرد” مجرد خيال علمي. وهنالك مسائل أخلاقية أخرى أكثر أهمية على المدى القريب.”
سيناريو المرآة السوداء
بينما نتحدث عن الذكاء العام الاصطناعي، هنالك أشكال من الذكاء الاصطناعي المحدود موجودة فعلا في حياتنا: مثل خرائط غوغل التي تبين لنا الطرق التي لا يمر منها الناس كثيرا، والبرامج الصوتية مثل المساعد الشخصي “سيري” الذي يجيب عن أسئلتنا التافهة، وشركة كامبريدج أناليتيكا التي سرقت بيانات شخصية واستخدمتها للتأثير في نتائج الانتخابات، والطائرات المسيّرة العسكرية التي تختار من ستقتله على الأرض.
هذا الذكاء الاصطناعي المحدود هو ما يحرك الشخصيات الآلية في مسلسل “West World، وسيبقى الأمر كذلك إلى أن يتطور الذكاء العام الاصطناعي وتبدأ هذه الروبوتات باتخاذ قراراتها بنفسها وتطرح أسئلة ذات طبيعة إنسانية حول الوجود والحب والموت.
كلما زاد المطورون من دفعهم لآلاتهم لاتخاذ قرارات ذكية تفاجئنا وتبهرنا، كلما زادت احتمال تسببهم في شيء غير متوقع وكارثي
ولكن حتى دون الإنسان الآلي المتفرد، وظهور الروبوتات الأسياد، فإن إمكانيات انحراف نتائج الذكاء الاصطناعي المحدود نحو سيناريوهات مروعة، هو أمر قائم، تماما مثلما يحدث في قصة المسلسل التلفزيوني “المرآة السوداء”. حيث أن نظام التحكم في درجة الحرارة يمكن أن يقتل البشر لأن هذا هو القرار المنطقي بالنسبة له لخفض حرارة الكوكب، كما أن شبكة من الحواسيب ذات الكفاءة الطاقية يمكن أن تستحوذ على منشأة للطاقة النووية، حتى تتمكن من الحصول على احتياجاتها من الكهرباء بنفسها.
وكلما زاد المطورون من دفعهم لآلاتهم لاتخاذ قرارات ذكية تفاجئنا وتبهرنا، كلما زادت احتمال تسببهم في شيء غير متوقع وكارثي. كان اختراع الإنترنت قد فاجئ الفلاسفة في وقت سابق، ولكن هذه المرة يحرص المهتمون بأخلاقيات الذكاء الاصطناعي على مواكبة الأمر منذ البداية.
حيث يقول تاي وان كيم، المتخصص في عالم أخلاقيات الذكاء الاصطناعي في جامعة كارنيجي ميلون في بيتسبورغ: “هنالك في وادي السيليكون نقص في الوعي بهذه المسائل الأخلاقية، كما أن المؤسسات الدينية والحكومات ليس لديها إطلاع كاف حول هذه التكنولوجيا، وبالتالي لا يمكنها المساهمة في النقاش الدائر. ونحن دورنا هو ردم هذه الهوة بين الطرفين.”
ويجري علماء أخلاقيات الذكاء الاصطناعي مشاورات مع المدارس والشركات والحكومات. كما أنهم يدربون المستثمرين للتفكير في أسئلة من قبيل: هل أن شركات التقنية التي تجمع وتحلل الحمض النووي للإنسان يجب السماح لها ببيع هذه البيانات للشركات الصيدلية من أجل إنقاذ الأرواح؟ هل يمكن صياغة برمجيات تساعد على اتخاذ القرار عند الموافقة على عقود التأمين على الحياة والقروض؟ هل يجب على الحكومات منع الآلات التي تقدم خدمات جنسية تحاكي الواقع، والتي يمكن أن تغري بعض الأشخاص للشعور بأنهم يخوضون علاقة بشرية حقيقية؟ كم يجب أن نستثمر في هذه التكنولوجيا التي تقضي على ملايين الوظائف؟
من أكبر أسباب قلق علماء أخلاقيات الذكاء الاصطناعي، هي أن الإنترنت المعولمة تصعب فرض أي مبادئ كونية مثل حرية التعبير
باتت شركات التقنية نفسها تخصص جهودا أكبر للمسائل الأخلاقية، ومديرو هذه الشركات يفكرون بجدية في تأثير إختراعاتهم. وقد أظهرت دراسة أجريت مؤخرا على مديري شركات وادي السيليكون أن كثيرين منهم يمنعون أبنائهم من استخدام الهواتف الذكية.
يعتبر السيد كيم أن عمله يتمثل في دور المثقف العام، الذي يتفاعل مع أحدث توجهات الشركات، للتأكد من أنهم يأخذون الجوانب الأخلاقية على محمل الجد.
وفي يونيو/ حزيران الماضي، كانت شركة غوغل، في خطوة منها لطمأنة الرأي العام والمسؤولين، قد نشرت لائحة من سبعة مبادئ تنظم تطبيقات الذكاء الاصطناعي. وتنص هذه المبادئ على أن الذكاء الاصطناعي يجب أن يكون مفيدا إجتماعيا، ويتجنب خلق أو تعزيز الظلم والانحياز، ويكون مبنيا ومجرّبا لضمان السلامة، ويكون خاضعا لمحاسبة البشر، ويضمن احترام الخصوصية، ويحترم أرقى معايير التفوق العلمي، ويكون متوفرا للاستخدام بشكل يتوافق مع هذه المبادئ.
وفي رد على هذه الخطوة نشر السيد كيم مقالا نقديا في مدونته، يقول فيه: “إن المشكلة مع الوعود الاجتماعية التي قدمتها غوغل، هي أن هذه الشركة يمكنها على سبيل المثال استغلال المعايير المحلية في بعض البلدان. إذ أن الصين يمكن مثلا أن تسمح باستغلال الذكاء الاصطناعي بشكل ينتهك حقوق الإنسان، وفي هذه الحالة فإن غوغل بلا شك سوف لن تردد في القيام بهذا الأمر. (إلى حين نشر هذا المقال، لم ترد شركة غوغل على طلباتنا للتعليق على هذا النقد)
ومن أكبر أسباب قلق علماء أخلاقيات الذكاء الاصطناعي، هي أن الإنترنت المعولمة تصعب فرض أي مبادئ كونية مثل حرية التعبير. إذ أن الشركات في معظمها هي التي تتحكم في هذا المجال، وهذا الأمر صحيح بشكل خاص عندما يتعلق الأمر بتحديد حجم المهام التي نتركها لتقوم بها الآلة.
ومن الحجج التي تبدو مألوفة لأي شخص درس علم الاقتصاد، هي أن التكنولوجيات الجديدة تخلق فرص عمل بنفس عدد الوظائف التي تقضي عليها. وهكذا فإن اختراع محلاج القطن (الآلة التي تفصل ألياف القطن عن البذور) خلال القرن التاسع عشر، أنعشت قطاعات صناعية تنتج الأجزاء الأساسية لهذه الآلة من خشب وحديد. وعندما تم استبدال الخيول بالسيارات كوسيلة أساسية للنقل، اختفت عديد الوظائف في الإسطبلات وظهرت فرص جديدة للعمل في المجال الميكانيكي.
من أكثر الوظائف انتشارا في الولايات المتحدة هي الجلوس خلف المقود، ولكن الآن باتت السيارات ذاتية القيادة تهدد الملايين من سائقي سيارات الأجرة والشاحنات بفقدان وظائفهم.
ولكن علماء أخلاقيات الذكاء الاصطناعي يحذرون من أن الثورة التكنولوجية الحالية مختلفة تماما، لأنها الأولى التي تعوض المهام الفكرية. وهذا النوع من التشغيل الآلي يمكن أن يخلق مشكلة بطالة دائمة لدى عديد الفئات. والتعامل الاقتصادي البحت مع مشكلة البطالة قد يتمثل في إقرار مبدأ الدخل الأساسي العالمي، أي توزيع مبلغ مالي على كل مواطن. ولكن بحسب السيد كيم فإن علماء أخلاقيات الذكاء الاصطناعي ينبهون إلى أن الحياة دون هدف سام، مثل القيام بالعمل، هي حياة بائسة. والتعاليم الاجتماعية الدينية هي مصدر تأثير كبير على علماء الأخلاقيات، لأنها تكرس أهمية العمل لتحقيق الكرامة والسعادة للإنسان.
ويقول السيد كيم: “إن المال لوحده لا يمنحك السعادة والمعنى في الحياة. إذ أن العمل يمنحك أشياء أخرى كثيرة، مثل التواصل الاجتماعي، وتطوير شخصيتك، والتحفيز الفكري، والكرامة”. كما يذكر كيم أنه عندما بلغ والده سن التقاعد وتوقف عن إدارة مصنع المعكرونة في كوريا الجنوبية، بات يحصل على المال ولكنه فقد متعة التواصل الاجتماعي واحترامه لذاته.
هذه الحجة تبدو قوية، لتثمين قيمة العمل الذي ينجزه الإنسان بيديه، ولكن ما دام عالمنا محكوما بالرأسمالية، فإن قدرة الروبوت على العمل السريع والرخيص سوف تجعله أكثر جاذبية.
لذلك يقول السيد كيم: “ربما يحتاج القادة الدينيون للتفكير في تعريف جديد للعمل. إذ أن بعض الناس يقترحون فكرة عمل الواقع الافتراضي، التي تعني وظائف المحاكاة في ألعاب الكومبيوتر. هذا الأمر قد لا يبدو مرضيا، ولكن يمكننا أن نعتبر أن العمل قد لا يكون بالضرورة نشاطا ربحيا.”
هنالك أيضا إمكانية ألا تكون سيطرة الآلة سيئة مثلما نخشى. إذ أن شركة في بيتسبورغ تدعى “ليغر سيفتر” توفر خدمة تستخدم الخوارزميات لقراءة العقود القانونية وكشف الثغرات والأخطاء والنقاط التي تم السهو عنها. وهذه التكنولوجيا ممكنة لأن الصياغة القانونية أكثر ثباتا من أغلب أنواع الكتابة الأخرى.
وتطرح مسألة السيارات المستقلة العشرات من المشاكل الأخلاقية المتعلقة بالذكاء الاصطناعي، ومن أشهر هذه المسائل هي معضلة الترولي أو حتمية القرار واللاقرار
وفي هذا الشأن، يقول كيفن ميلر، المدير التنفيذي لهذه الشركة: “لقد تمكنا من رفع إنتاجيتنا بسبعة أو ثمانية أضعاف، دون أن نضطر لتوظيف أشخاص آخرين. ونحن بذلك نجعل الخدمات القانونية أقل كلفة لأغلب الناس”.
لكن رغم ذلك يقول ميلر إن المحامين لن يختفوا، فلطالما كان هنالك هيئات محلّفين من البشر، فسيكون هنالك أيضا محامون وقضاة، والمستقبل لا يتمثل في ثنائية المحامي في مواجهة الروبوت، بل إنه المحامي مع الروبوت في مواجهة محام آخر مع روبوت.
السيارات ذاتية القيادة ومعضلة الترولي
من أكثر الوظائف انتشارا في الولايات المتحدة هي الجلوس خلف المقود، ولكن الآن باتت السيارات ذاتية القيادة تهدد الملايين من سائقي سيارات الأجرة والشاحنات بفقدان وظائفهم.
ونحن لا نزال الآن على بعد 10 سنوات على الأقل، من اليوم الذي تحتل فيه هذه السيارات الذكية أغلب شوارعنا، ولكن قطاع النقل الميكانيكي مهم جدا في حياتنا العصرية، وأي تغيير فيه سوف يؤثر بشكل كبير على المجتمع.
وتطرح مسألة السيارات المستقلة العشرات من المشاكل الأخلاقية المتعلقة بالذكاء الاصطناعي، ومن أشهر هذه المسائل هي معضلة الترولي أو حتمية القرار واللاقرار، وهي قصة اشتهرت على يد الفيلسوفة البريطانية فيليبا فوت خلال ستينات القرن الماضي. والنسخة الحديثة من هذه المعضلة الأخلاقية تتمثل فيما سيفعله الذكاء الاصطناعي إذا كان يتحكم في حافلة مليئة بالركاب تسير في الطريق بسرعة كبيرة. ففي حالة الطوارئ هل سيكون عليه تغيير اتجاهه لقتل عدد أقل من الناس؟ وماذا لو كان تغيير الإتجاه يهدد حياة طفل صغير؟
حتمية الاختيار بين التضحية بركاب الحافلة أو الطفل تسلط الضوء على واحد من أعقد وأصعب القرارات التي يمكن للبشر أن يقوموا بها في حياتهم، حتى لو كنا نعلم أننا لا نقوم بهذا الاختيار على أفضل وجه. هذا الاختيار هو بالضبط الشيء الذي لا يمكن أبدا أن نسمح للخوارزميات باتخاذه، خاصة إذا بدأنا باحتساب القيمة النسبية للخسائر البشرية.
وتخيلوا على سبيل المثال أن نخبر سائق دراجة بأن التضحية به هو أمر منطقي لإنقاذ ركاب الحافلة من التعرض لحادث سير والإصابة بالإعاقة الدائمة.
بينما يسعى المبرمجون لجعل هذا النوع من التفكير المنطقي ممكنا للآلة، يعتمدون في تطوير خوارزمياتهم على البيانات المستمدة من ملاحظة السلوك البشري
ويقول خبراء التكنولوجيا إن “معضلة الترولي” لا تزال أمرا نظريا، لأن الآلات في عصرنا الحالي تواجه صعوبة في اتخاذ أبسط القرارات، مثل التفريق بين البشر والجماد كالأكياس البلاستيكية وعربات التسوق، وهو ما يؤدي لسيناريوهات لا يمكن التنبؤ بها. ويعزى هذا القصور لحد الآن إلى عدم تمكن علماء الأعصاب من التوصل لفهم كامل لكيفية عمل نظام الرؤية لدى الإنسان.
ولكن يقول مايك رامسي، خبير السيارات في مؤسسة غارتنر للإستشارات: “إن هنالك العديد من الإشكاليات الأخلاقية والمعنوية التي يمكن أن تحدث، وهذه هي التي يجب أن نهتم بها.”
من أكبر هذه الإشكاليات هنالك برمجة الروبوت ليخرق القانون عن قصد. فهل سيكون مقبولا أخلاقيا إخبار الحاسوب بقيادة السيارة متجاوزا حدود السرعة المسموح بها، بما أن جميع البشر عادة ما يتجاوزون هذه السرعة؟
دائما ما يقوم البشر بكسر القواعد بشكل عقلاني، وعلى سبيل المثال نحن نقوم طوال الوقت بإنزال مرافقينا من السيارة في أماكن يمنع فيها ذلك، عوضا عن إنزالهم في الأماكن الآمنة والمخصصة، وهذا الأمر قد يكون خاطئا قانونيا ولكنه آمن. واتخاذ هذا القرار لا يزال لحد الآن مستحيلا بالنسبة للآلة.
والآن بينما يسعى المبرمجون لجعل هذا النوع من التفكير المنطقي ممكنا للآلة، يعتمدون في تطوير خوارزمياتهم على البيانات المستمدة من ملاحظة السلوك البشري. وفي هذا العالم الذي تغيب فيه العدالة، يمثل هذا مشكلا.
في هذا الشأن، تقول شانون فالور، أستاذة الفلسفة في جامعة سانتا كلارا: “هنالك خطر أن يتم استخدام أنظمة الذكاء الاصطناعي بطرق تعمق الفوارق والتفاوت الاجتماعي. وإذا كان هنالك توجه من هذا النوع، فإن الذكاء الاصطناعي سوف يواصل في التوجه”.
على سبيل المثال، فإن برمجيات تقديم القروض السكنية والتأمين على الحياة يمكن أن تفرض شروطا أكثر على الفئات الاجتماعية المهمشة، بناء على الخوارزميات التي تبحث في التاريخ العائلي لأصحاب الطلبات، وممتلكاتهم السابقة.
ن الاحتمالات السوداوية المطروحة، إمكانية أن تقدم الحكومة على حرمان بعض الأفراد من الرعاية الصحية والخدمات الحكومية، بذريعة أن سلوكهم سيء، وذلك بناء على البيانات التي تسجلها شركات التواصل الاجتماعي والأجهزة التي تتعقب تحركاتنا مثل سوار المعصم “فيتبيت”.
ولا يطالب علماء أخلاقيات الذكاء الاصطناعي ببرمجة هذه التكنولوجيا لاتخاذ مبادرات إيجابية، ولكنهم يعبرون عن خشيتهم من أنها سوف لن تصحح التوجهات الخاطئة التي تنطوي على تمييز.
كما يشعر علماء الأخلاق بالقلق من أن الاعتماد على الذكاء الاصطناعي لاتخاذ قرارات مؤثرة في حياتنا، يمنح هذه التكنولوجيا سطوة أكبر علينا، من تلك التي تمتلكها حاليا الشركات التي تجمع وتبيع وتشتري بياناتنا الخاصة، والحكومات التي تحدد كيفية استغلال هذه البيانات.
ومن الاحتمالات السوداوية المطروحة، إمكانية أن تقدم الحكومة على حرمان بعض الأفراد من الرعاية الصحية والخدمات الحكومية، بذريعة أن سلوكهم سيء، وذلك بناء على البيانات التي تسجلها شركات التواصل الاجتماعي والأجهزة التي تتعقب تحركاتنا مثل سوار المعصم “فيتبيت”.
كما أن كل برمجية ذكاء اصطناعي تعتمد على كيفية رؤية كل فرد للعالم، حيث يقول السيد غرين عالم الأخلاقيات في جامعة سانتا كلارا: “يمكنك تقليد العديد من الأنماط الإنسانية، ولكن ما هي نوعية البشر التي سوف تقلدها؟ ونسخ السلوك البشري هو هدف فرع آخر مستقل من علوم الذكاء الاصطناعي، يحاكي الروابط الإنسانية. ويمكن لروبوتات مزودة بالذكاء الاصطناعي محاكاة الشعور بالصداقة والدفء العائلي، وتقديم الدعم النفسي وحتى المشاعر الرومانسية”.
وقد توصلت إحدى الدراسات إلى أن الأطفال الذين يعانون من التوحد، والذين يسعون لتعلم اللغة والتفاعلات الاجتماعية البسيطة، تجاوبوا مع روبوت الذكاء الاصطناعي بشكل أفضل من تجاوبهم مع البشر. ولكن الفيلسوفة ألكسيس إلدر تعتبر أن هذا يمثل خطرا أخلاقيا. حيث تقول: “إن الخطر هنا يتمثل في هذه الروبوتات وقدرتها على التظاهر بالصداقة، أمام الناس الذين لا يمكنهم التمييز بين الأصدقاء الحقيقيين والمزيفين.”
يبدو أن علماء الأخلاقيات الذين يدرسون الذكاء الاصطناعي المحدود، تواجههم الإشكالات الفلسفية العميقة نفسها التي يطرحها الدارسون للذكاء الاصطناعي العام.
وقد كتبت ألكسيس مقالا بعنوان “أخلاقيات الروبوت من السيارات ذاتية القيادة إلى الذكاء الاصطناعي”، تقول فيه “إن أرسطو حذر من أن خداع الآخرين بالمظاهر المزيفة هو نفس الأمر مثل تزوير العملة.”
ومن الأشكال الأخرى للعلاقات المزورة التي تقدمها لنا تكنولوجيا الذكاء الاصطناعي، نجد الرومنسية. إذ أن أحدى الشركات تصنع نماذج جديدة من دمى الذكاء الاصطناعي، سعرها 10 آلاف دولار، وهي تعد في ومضاتها الإعلانية بتقديم “أمتع محادثة وأفضل تفاعل يمكن أن يحظى به الإنسان مع آلة.”
ويقول بعض الناس أن هنالك حاليا أنهم في علاقة مع الروبوتات، وهو ما يخلق أسئلة أخلاقية غريبة. فإذا قام شخص بتدمير الروبوت المحبب إليك، فهل سيعتبر ذلك جريمة قتل؟ وهل يجب على الحكومة سن قوانين تحمي حقك في اصطحاب شريكك الآلي إلى ملعب كرة قدم أو رحلة بالطائرة؟ وهل يحق لك أخذ عطلة من العمل إذا تعرض هذا الإنسان الآلي لعطل؟
بيار تيلار دي شاردان والتجربة المجنونة
ويبدو أن علماء الأخلاقيات الذين يدرسون الذكاء الاصطناعي المحدود، تواجههم الإشكالات الفلسفية العميقة نفسها التي يطرحها الدارسون للذكاء الاصطناعي العام. ومن الأمثلة حول تطور الذكاء المحدود إلى ذكاء عام، هنالك برمجية الكمبيوتر المسماة “التغلب على لي سيدول”، وهو البطل البشري للعبة الاستراتيجية “غو”، في سنة 2006.
وفي مراحل مبكرة من هذه اللعبة، قامت البرمجية Alpha Go بحركة لم يكن لها أي مغزى بالنسبة للبشر الذين يشرفون عليها، ولكن في نهاية اللعبة، اكتشفوا أنها كانت مقصودة. هذا النشاط الغامض من المفترض أن يكون حكرا على الإنسان، إلا أنه بات نذيرا على ما يمكن للذكاء الاصطناعي العام أن يقوم به مستقبلا.
من المفكرين الكاثوليك الذين تناولوا بعمق مسألة تأثير الذكاء الاصطناعي على البشر، هنالك بيار تيلار دي شاردان، المفكر الفرنسي اليسوعي والعالم الذي ساهم في تأسيس مدرسة فكرية جديدة تسمى “ما بعد الإنسانية”، تنظر إلى كل أنواع التكنولوجيا على أنها امتداد للإنسان نفسه.
كما أن منظّري الذكاء الاصطناعي العام يطرحون هم أيضا مجموعة من الٍاسئلة. حيث أنهم يناقشون ما إن كان على شركات التقنية والحكومات تطوير الذكاء الاصطناعي العام بأسرع شكل ممكن من أجل تجاوز كل الثغرات والإخلالات، أو منع تطويره من أجل تجنب سيطرة الآلة على كوكبنا.
ويتساءل هؤلاء المنظّرون حول ما سيكون عليه الأمر عند زرع شرائح في أدمغتنا تجعلنا أذكى بمائتي مرة، أو تجعلنا لا نموت، أو تحولنا إلى آلهة. هل سيكون هذا الأمر حينها من حق كل إنسان؟ البعض يتنبأ بأن الذكاء الاصطناعي العام نفسه هو الإله الذي ستتم عبادته. ولكن مرحلة التفرّد، إذا حدثت فعلا، تمثل مشكلة حقيقية للمفكرين من جميع الأديان، لأنها سوف تمثل قطيعة واضحة مع الروايات التقليدية.
ومن المفكرين الكاثوليك الذين تناولوا بعمق مسألة تأثير الذكاء الاصطناعي على البشر، هنالك بيار تيلار دي شاردان، المفكر الفرنسي اليسوعي والعالم الذي ساهم في تأسيس مدرسة فكرية جديدة تسمى “ما بعد الإنسانية”، تنظر إلى كل أنواع التكنولوجيا على أنها امتداد للإنسان نفسه.
وتقول إليا ديليو، الأستاذة في جامعة فيلانوفا: “إن كتابات دي شاردان استبقت الإنترنت وما تفعله الحواسيب في عصرنا الحالي. حيث أن هذا العالم نظر إلى التكنولوجيا بشكل أوسع.”
إلا أن ناقدي مدرسة ما بعد الإنسانية يقولون إنها تروج لوجهة النظر التي تقدس المادة والرغبات الحسية. وفي مقال نشر مؤخرا في مجلة “أميركا”، اعتبر جون كونلي، الأستاذ في جامعة لويولا في ماريلند، أن هذه المدارس الفكرية تمثل سببا وجيها للقلق.
وكتب كونلي: “هل هنالك أي مكان لأصحاب الإعاقات في هذه المدينة الفاضلة؟ لماذا قد نرغب في إلغاء الشيخوخة والموت، رغم أنها من المقومات الأساسية للمشاعر الإنسانية، ومصدر إلهام للفنون والأدب؟ هل يمكن أن يوجد حب وإبداع دون المعاناة؟ من الذي سوف يزدهر ومن الذي سوف يختفي في مرحلة ما بعد الإنسانية؟ أليس للطبيعة نفسها أي قيمة جوهرية؟”
ويقول خوان أورتيز فرولر، الباحث السياسي في “مؤسسة الشبكة العنكبوتية العالمية”، التي أسسها السير تيم بيرنرز لي لحماية حقوق الإنسان: “إنه يسمع دائما الناس في قطاع التقنية يشتكون من أن نظام الذكاء الاصطناعي معقد جدا ولا يمكنهم فهمه، وهو يبدو لهم غامضا مثل فكرة الألوهية. إلا أنه في الواقع ليس كذلك”
كما أن كتابات تيلار دي شاردان تم استغلالها من قبل جماعات عنصرية سيئة السمعة، تؤمن بالتفوق العرقي، خلال عشرينات القرن الماضي، لأن هذا العالم اعتبر على سبيل المثال أنه “ليست كل المجموعات العرقية لها نفس القيمة.”
إلا أن أطروحاته الفلسفية البحتة حول التكنولوجيا استعادت شعبيتها بين المفكرين الكاثوليك في القرن 21، وقراءة كتابات تيلار يمكن أن تمثل رحلة مجنونة. حيث يقول تيلار إن التكنولوجيا، وهذا يتضمن طبعا الذكاء الاصطناعي، يجب أن تربط بين كل البشرية، وتجمعا كلها في نقطة توحد روحاني من خلال المعرفة والحب.
وقد سمى لحظة الاجتماع الروحاني لكل العالم “نقطة أوميغا”، وهو لم يكن يقصد بها النزعة الاستهلاكية التي انتشرت بين الناس بسبب جشع الشركات التجارية.
هذا الفكر المثالي مشابه لفكر السير تيم بيرنرز لي، وهو واحد من العلماء الذين طوروا البرمجيات التي صنعت لنا الإنترنت. حيث يقول هذا المهندس البريطاني إن الهدف من الشبكة العنكبوتية كان خدمة الإنسانية. ولكن التحكم المركزي والتجاري في هذه الشبكة أدى في النهاية، ودون قصد مسبق من الأشخاص الذين صمموها، إلى بروز ظاهرة واسعة النطاق معادية للإنسانية.
والآن يقول تيم وعلماء آخرون إن تكديس وبيع بيانات الأفراد هو أمر نزع عن البشر البعد الإنساني، وجعلهم مجرد سلعة عوضا عن تعزيز إنسانيتهم.
ومن الملاحظ هنا أن النقاش حول الذكاء الاصطناعي يطرح تساؤلات أخلاقية لدى أشخاص يعملون في قطاع التقنية، كانوا لا يفكرون عادة في الجوانب الدينية والمعنوية.
ويقول خوان أورتيز فرولر، الباحث السياسي في “مؤسسة الشبكة العنكبوتية العالمية”، التي أسسها السير تيم بيرنرز لي لحماية حقوق الإنسان: “إنه يسمع دائما الناس في قطاع التقنية يشتكون من أن نظام الذكاء الاصطناعي معقد جدا ولا يمكنهم فهمه، وهو يبدو لهم غامضا مثل فكرة الألوهية. إلا أنه في الواقع ليس كذلك، بل إن هذه التكنولوجيا هي مجرد شركة ترتدي قناع إله، ولا نعلم حقيقتها أو المبادئ التي تخفيها.”
ونحن لسنا في حاجة لاعتبار هذه التكنولوجيا إلاه، حتى نفهم أن خياراتنا وحياتنا باتت تحت تأثير برمجيات اتخاذ القرارات. ولكن مثلما أخبرني كل عالم أخلاقيات ذكاء اصطناعي قابلته، يجب علينا ألا نشك في أننا لا زلنا مسؤولين على اتخاذ القرارات الهامة. فنحن لا زلنا نمتلك حريتنا، ويمكننا اتخاذ قراراتنا.
المصدر: أميركا ماغازين