ترجمة وتحرير: نون بوست
في سنة 2016، حاول أستاذ جامعة أكسفورد لوتسيانو فلوريدي شد اهتمام الاتحاد الأوروبي بتسليط الضوء على أخلاقيات الذكاء الاصطناعي. ويتذكر فلوريدي في أواخر سنة 2020 “عدد الأشخاص الذين أخبروني أن هذه ليست مشكلة، وأنني كنت أضيع وقتهم”.
ثابر فلوريدي في أبحاثه. وعلى امتداد السنوات اللاحقة، وخلال عمل المفوضية الأوروبية على تنظيم مجال الذكاء الاصطناعي أصبح أستاذ الأخلاقيات أحد الخبراء المحوريين الذين يقدمون المشورة للمفوضية. ولكن فلوريدي، مثل العديد من الخبراء الآخرين الذين قدموا المشورة للاتحاد الأوروبي، كانت له علاقات تمويل واسعة النطاق مع شركات التكنولوجيا الكبرى، مما أثار تساؤلات حول احتمال تضارب المصالح والتأثير الهائل للمصالح التجارية على سياسة الذكاء الاصطناعي في الاتحاد الأوروبي.
مشورة الخبراء حسب الصناعة
في سنة 2018، أنشأت المفوضية الأوروبية فريق خبراء رفيع المستوى لتقديم المشورة للاتحاد الأوروبي بشأن المبادئ التوجيهية الأخلاقية وسياسة الاستثمار في الذكاء الاصطناعي.
ورغم توليهم مسؤولية صياغة المبادئ التوجيهية الأخلاقية للاتحاد الأوروبي، إلا أن قلة من أعضاء فريق الخبراء كانوا يؤمنون بهذه المبادئ الأخلاقية. في الواقع، يمثل 26 خبيرا – أي حوالي نصف أعضاء المجموعة البالغ عددهم 56 – المصالح التجارية، بينما يتألف الباقون من 21 أكاديميا، وثلاث وكالات عامة، وست منظمات من المجتمع المدني.
لكل من شركة “جوجل” و”آي بي إم” ممثلون في هذا الفريق إلى جانب كبرى الشركات الأوروبية، على غرار شركة “إيرباص”و”بي أم دبليو” و”أورونج” و”زالاندو”. ومن خلال شركة “ديجيتال يوروب”، وهي رابطة أعمال تجارية تضم معظم شركات التكنولوجيا الكبرى، كان لدى كُبرى الشركات التكنولوجية مدافع مباشر آخر في المجموعة.
بالنسبة لسيسيليا بونفيلد دال، المديرة العامة لشركة “ديجيتال يوروب” والمديرة التنفيذية السابقة لشركة “آي بي إم”، ضمت مجموعة الخبراء “مجموعة متنوعة للغاية من أصحاب المصلحة المتعددين، إلى جانب أعضاء من شتى الصناعات”. وقد أعلنت مديرة شركة “ديجيتال يوروب” بأن لديها “إيمانا راسخا بهذا التنوع”، ولكن هناك من يخالفها الرأي.
قال ثيبولت ويبر ممثل اتحاد النقابات الأوروبية إن “وجود 6 ممثلين فقط عن المجتمع المدني نسبة منخفضة جدا”. وأضاف “لم تكن العملية ديمقراطية على الإطلاق. فقد عينت اللجنة المجموعة دون إطلاعنا على المعايير المتبعة”. وقد كافح اتحاد النقابات الأوروبية للحصول على مقعد في المجموعة، ولم ينجح في الانضمام إليها إلا عندما انسحبت نقابة عمالية فرعية لإفساح المجال لهم. وتكشف الوثائق الداخلية أن الاتحاد الأوروبي كان يتوقع في البداية تشريك المزيد من خبراء المجتمع المدني مقابل ممثلين أقل عن الشركات.
في حديثه عن كيفية تشكيل فريق الخبراء، سلط متحدث باسم الاتحاد الأوروبي الضوء على “تعددية التخصصات، والخبرة الواسعة، ووجهات النظر المتنوعة، والتوازن الجغرافي والجنساني” للأعضاء. وأوضح المسؤول سبب انخفاض عدد الأخلاقيين بحجة أن “العمل المكثف الذي تقوم به المجموعة لم يركز فقط على الأخلاقيات”.
أكاديميون ممولون من شركات التكنولوجيا
تكشف المعلومات المتاحة للجمهور أن تسعة على الأقل من الأكاديميين وممثلي المجتمع المدني التابعين لمجموعة الخبراء ينتمون إلى مؤسسات تتلقى تمويلا من كُبرى شركات التكنولوجيا غالبا ما تبلغ قيمته ملايين اليوروهات. وشمل ذلك المؤسسات الأكاديمية مثل جامعة ميونخ التقنية والمعهد الوطني للبحوث في علوم الكمبيوتر والأتمتة وجامعة فيينا التقنية وجمعية فراونهوفر وجامعة دلفت للتكنولوجيا ومركز البحوث الألماني للذكاء الاصطناعي.
تربط لوتشيانو فلوريدي علاقات طويلة الأمد بشركات التكنولوجيا الكبرى، وهو يُلقب بـ “فيلسوف جوجل”. يتلقى مختبر الأخلاقيات الرقمية بجامعة أكسفورد الذي يرأسه فلوريدي تمويلا من قبل “جوجل” و”مايكروسوفت”. ومن أجل الحصول على ورقة بحثية حول مبادئ الذكاء الاصطناعي، التي نُشرت خلال فترة عمله ضمن مجموعة خبراء الاتحاد الأوروبي، أعلن فلوريدي عن تلقيه تمويلًا مباشرًا من شركة “جوجل” و”فيسبوك”.
في سنة 2019، أثناء عمله ضمن مجموعة خبراء الاتحاد الأوروبي، انضم فلوريدي إلى المجلس الاستشاري لشركة “جوجل” للتنمية المسؤولة للذكاء الاصطناعي، إلا أن شركة “جوجل” حلّت المجلس بعد أسبوع واحد فقط من بدء أشغاله في أعقاب الاحتجاجات العامة.
من سنة 2017 حتى سنة 2020 – أي طوال مشاركته في مجموعة خبراء الاتحاد الأوروبي، شغل الأكاديمي أندريا ريندا منصب “رئيس جوجل للابتكار الرقمي” في كلية أوروبا، التي تقدم دورات دراسات عليا مرموقة في الاتحاد الأوروبي. وفي الوقت نفسه، عمل ريندا باحثًا أولًا في مركز دراسات السياسة الأوروبية، وهي مؤسسة فكرية مؤثرة في بروكسل تضم عشرات الشركات الأعضاء بما في ذلك شركة “جوجل” و”فيسبوك” و”مايكروسوفت”.
كان عمالقة التكنولوجيا الثلاثة جزءًا من فريق عمل تابع لمركز دراسات السياسة الأوروبية حول الذكاء الاصطناعي، برئاسة ريندا، الذي تحدث عن “الإمكانات الواعدة” للذكاء الاصطناعي رغم ما ينطوي عليه من “تحديات”. وفي الآونة الأخيرة، قاد ريندا دراسة أعدها مركز دراسات السياسة الأوروبية للمفوضية حول تأثير اللوائح المقترحة من الاتحاد الأوروبي على الذكاء الاصطناعي.
إعلان المصالح
كان يتعيّن على الخبراء العمل “بشكل مستقل ولصالح المصلحة العامة” دون تضارب في المصالح. ولكن لم يرَ فلوريدي وريندا تضاربًا في المصالح بين التمويل الذي يتلقونه ودورهما كخبراء. وقد علق فلوريدي على ذلك قائلا: “أقوم بإجراء جميع الأبحاث والاستشارات بحرية أكاديمية كاملة ودون تأثير من الممولين”. وأوضح ريندا “لم يؤثر أي من هذين النشاطين حقًا في عضويتي في فريق الخبراء رفيع المستوى: لقد كنت عضوا مستقلا، وتصرفت على هذا النحو، وساهمت بشكل استباقي للغاية في عمل فريق الخبراء رفيع المستوى”.
لقد “تقدم بنجاح” لمنصب في كلية أوروبا الذي مولته شركة “جوجل” ولم تشارك “جوجل” في عملية الاختيار أو تتدخل في أنشطته على الإطلاق. وأوضح ريندا “بصفتي أكاديميا، فأنا في الحقيقة لست منحازا لأي سلطة خاصة أو عامة”.
يقول أكاديميون آخرون إن تمويل البحوث له تأثير. وحسب محمد عبد الله من جامعة تورنتو فإن المال لا يغير بالضرورة وجهة نظر الباحث وإنما يؤثر على قراراتهم الشخصية. ويبدو أن الأكاديميون الذين ينتقدون شركات التكنولوجيا الكبيرة لن يتقدموا لوظائف في المؤسسات التي تمولها شركات التكنولوجيا، على عكس غيرهم من الأكاديميين الذين يؤدونها.
وفقًا لعبد الله، الذي قارن استراتيجيات الضغط التي تعتمدها كبرى شركات التكنولوجيا مع استراتيجيات كبرى شركات التبغ، فإن “المشكلة تكمن في التضخم المفرط لهذا الرأي في الأوساط الأكاديمية أو بين صناع القرار”.
يعتقد لوك ستارك، الأكاديمي الكندي الذي رفض تمويل جوجل، أن عدم قدرة أبحاث الذكاء الاصطناعي على التخلي عن التمويل الذي تقدمه شركات التكنولوجيا يمثل مشكلة كبيرة، مشيرا إلى أن ذلك “يفسر سبب الفوضى التي نعيشها مع هذه الأنظمة”.
من غير الواضح ما إذا كان أي من الخبراء قد أعلن عن وجود تضارب في المصالح. وقد رفضت اللجنة طلب الخبير تصاريح الاستقلالية بتعلة أنها تحتوي على بيانات شخصية. ولا يبدو أن اللجنة قد تحققت من عدم وجود تضارب في المصالح.
تتلقى مجموعة الدفاع عن الحقوق الرقمية “أكساس ناو”، وهي واحدة من منظمات المجتمع المدني القليلة في المجموعة، تمويلًا من شركات التكنولوجيا أيضًا. يقول دانييل لوفر، محلل السياسة الأوروبية في “أكساس ناو”، إن المنظمة نددت بهيمنة شركات التكنولوجيا في المجموعة ودعت إلى مزيد من التنظيم ووضع الخطوط الحمراء. ويضيف لوفر الذي يرى أن توازن المجموعة مقبول: “نحن لا نتوانى عن توجيه النقد عندما يكون ذلك ضروريا، لكننا لسنا أيضًا جماعة ضغط مناهضة للتكنولوجيا. لا يمكن أن تكون الأمور إما أبيض أو أسود، نحن نعمل مع شركات التكنولوجيا لضمان تحسين ممارساتها”.
يعتقد لوك ستارك، الأكاديمي الكندي الذي رفض تمويل جوجل، أن عدم قدرة أبحاث الذكاء الاصطناعي على التخلي عن التمويل الذي تقدمه شركات التكنولوجيا يمثل مشكلة كبيرة، مشيرا إلى أن ذلك “يفسر سبب الفوضى التي نعيشها مع هذه الأنظمة”.
الروابط بين خبراء التكنولوجيا والخبراء غير التجاريين
“الخطوط الحمراء” متساهلة
تسبب الاعتماد على أدوات شركات التكنولوجيا الكبرى في إثارة مخاوف مجموعة الخبراء أيضًا. وفي أحد اجتماعاتهم الأولى دخل فريق الخبراء في سجال حول ما إذا كان بإمكان المجموعة استخدام محرر مستندات جوجل للتعاون؟
قال أحد الخبراء: “لم أصدق ذلك، إذا كانت هناك مجموعة واحدة لا يمكنها العمل على مستندات جوجل، فهي مجموعة خبراء الذكاء الاصطناعي في الاتحاد الأوروبي”. وفي نهاية المطاف، قررت المجموعة العمل على نظام مختلف.
وذكرت بعض المصادر أن نقاشا آخر احتدم عندما اقترح ممثل جوجل، جاكوب أوسكوريت، نسخ ولصق جزء من المبادئ التوجيهية الأخلاقية لجوجل في توصيات الاتحاد الأوروبي.
علقت سابين كوسيجي، الأستاذة في الجامعة التقنية في فيينا، على ذلك قائلة: “لا يوجد شيء خاطئ في الإرشادات بحد ذاتها، ولكن ما تفعله جوجل عمليًا ليس جيدًا وهذا ما جعل الناس غاضبين”.
ولعل أكثر مظاهر التأثير علانية برزت عند وضع فريق الخبراء الخطوط الحمراء التي شملت تطبيقات الذكاء الاصطناعي التي يحظرها الاتحاد الأوروبي صراحة.
طُلب من توماس ميتزينغر، عالم الأخلاق الألماني، قيادة مجموعة العمل على وضع الخطوط الحمراء. وبعد عدة اجتماعات، أخبره بيكا بيتيلا، رئيس المجموعة والمدير التنفيذي السابق لشركة نوكيا، بإزالة أي إشارة إلى الاستخدامات “غير القابلة للتفاوض” للذكاء الاصطناعي.
قال ميتزينغر إن ممثلي الصناعة وجهوا إنذارًا نهائيا يقولون فيه: “هذه الكلمة لن تكون في الوثيقة، أو سنغادر”. اختفت الخطوط الحمراء من جدول الأعمال؛ وبدلا من ذلك، حددت المجموعة “الفرص والمخاوف الحرجة التي أثارها الذكاء الاصطناعي” وأوصت بسبعة “متطلبات رئيسية”، مثل السلامة والشفافية وعدم التمييز، التي سيتعين على الذكاء الاصطناعي تلبيتها.
قالت أورسولا باشل من منظمة المستهلك الأوروبية، إن توصيات سياسة المجموعة بشأن التنظيم “انتهى بها الأمر إلى أن تكون جزءا مخففا إلى حد ما من التقرير الشامل”. ولم تكن التوصيات “المخففة” لمجموعة الخبراء ملزمة. واستخدمت خمسة فقط من المبادئ السبعة في لائحة الذكاء الاصطناعي التي اقترحتها اللجنة في نيسان/أبريل 2021. في المقابل، وقع استبعاد اثنين، حيث كتبت مفوضية الاتحاد الأوروبي في حاشية سفلية أن “الرفاهية البيئية والاجتماعية هي مبادئ طموحة” ولكنها “غامضة للغاية بالنسبة لعمل قانوني ومن الصعب للغاية تنفيذها”.
تدقيق الذكاء الاصطناعي
مع انتقال النقاش حول تنظيم الذكاء الاصطناعي إلى قاعة البرلمان الأوروبي، انتقل العديد من الخبراء إلى مشاريع جديدة. بالنسبة إلى لوتشيانو فلوريدي، يبدو أن تدقيق أنظمة الذكاء الاصطناعي هو الحد الجديد. وقال أستاذ أكسفورد في أواخر سنة 2020: “لقد انتقلنا من المبادئ إلى الممارسات إلى المتطلبات إلى المعايير، وتخمين ما سيحدث بعد ذلك: شخص ما يأخذ ذلك كعمل تجاري”.
قال فلوريدي إنه كان يتفاعل مع “بعض الشركات الكبرى” التي كانت تتطلع إلى “جني الكثير من المال” من خلال “تدقيق الذكاء الاصطناعي كخدمة بمجرد بدء العمل باللوائح اللينة أو اللوائح الصارمة. لذا يجب مراقبة هذا المجال”. في المقابل، لم تستجب شركة جوجل ومايكروسوفت، وجاكوب أوسكوريت وسيسيليا بونفيلد دال لطلباتنا للتعليق.
قالت شركة فيسبوك، التي أعيدت تسميتها الآن وتنظيمها تحت مظلة شركة ميتا: “نحن ندعم البحث المستقل والنقاش العام حول كيفية تأثير التكنولوجيا، بما في ذلك الذكاء الاصطناعي، على المجتمع. عندما نقدم مساهمات مالية لتعزيز النقاش العام، فإننا لا نربط مساهماتنا بمواقف محددة أو نتائج البحث”.
المصدر: أوبزرفر