حوكمة الذكاء الاصطناعي
لقد تم رسم خريطة تصميم وتطوير ونشر الذكاء الاصطناعي، فضلاً عن التحديات المرتبطة به، بشكل كبير من قبل الشمال العالمي، إلى حد كبير في سياق أمريكا الشمالية. في عام 2020، أفادت الشراكة العالمية بشأن الذكاء الاصطناعي والمجتمع المستقبلي أن 58% من مجموعة من 214 مبادرة تتعلق بأخلاقيات الذكاء الاصطناعي والحوكمة والصالح الاجتماعي في ثمانية وثلاثين دولة ومنطقة، نشأت في أوروبا وأمريكا الشمالية وحدهما.1 وفي عام 2022، شكلت أمريكا الشمالية ما يقرب من 40% من عائدات الذكاء الاصطناعي العالمية مع أقل من 8% من سكان العالم.2 لكن هذا الانحراف الجغرافي في إنتاج الذكاء الاصطناعي وحوكمته يخفي النطاق الدولي الذي يحدث فيه تبني الذكاء الاصطناعي. إن القرارات المترتبة على الغرض من الذكاء الاصطناعي ووظائفه وضماناته تتركز في الشمال العالمي حتى مع الشعور بتأثيراتها في جميع أنحاء العالم.
غالبًا ما تحدد جهود حوكمة الذكاء الاصطناعي الدولية ما يُعتبر مبادئ “عالمية” يجب على الذكاء الاصطناعي الالتزام بها، مثل كونه “جديرًا بالثقة”3 أو “مركزًا على الإنسان”.4 ومع ذلك، فإن هذه المفاهيم تشفر السياقات والافتراضات التي تنشأ في الشمال العالمي الأكثر مواردًا. يؤثر هذا على كيفية تدريب نماذج الذكاء الاصطناعي ويفترض من هي الأنظمة التي من المفترض أن يستفيد منها الذكاء الاصطناعي، على افتراض أن نموذج الشمال العالمي سيثبت عالميته. ومن غير المستغرب، عندما تفشل وجهات نظر وأولويات أولئك الذين هم خارج الشمال العالمي في الظهور في كيفية بناء أنظمة الذكاء الاصطناعي وحوكمة الذكاء الاصطناعي، فإن الثقة في الذكاء الاصطناعي تتعثر. في استطلاع المخاطر العالمية لعام 2021 الذي أجرته مؤسسة لويدز ريجستر، كان عدم الثقة في الذكاء الاصطناعي هو الأعلى بين أولئك في البلدان ذات الدخل المنخفض.5 مع سعي مطوري الذكاء الاصطناعي وصناع السياسات إلى إرساء نتائج مفيدة أكثر اتساقًا، يجب أن تتكيف حوكمة الذكاء الاصطناعي لتأخذ في الاعتبار بشكل أفضل مجموعة الأضرار التي يلحقها الذكاء الاصطناعي على مستوى العالم.
المستهلكون مقابل المنتجون: تواجه الحكومات والأفراد في الجنوب العالمي فروقًا فريدة في القوة فيما يتعلق بالذكاء الاصطناعي، نظرًا للمركزية الحالية لإنتاج الذكاء الاصطناعي في الشمال العالمي. غالبًا ما يتم التعامل مع الجنوب العالمي – وفي كثير من الحالات، يحدد نفسه – كسوق للمستخدمين والمستهلكين بدلاً من كونه شريكًا متساويًا في إنشاء الذكاء الاصطناعي وحوكمته، مما يؤدي إلى اختلالات في التوازن في القوة.
التأطير التقني مقابل التأطير الاجتماعي التقني: لا تأخذ حوكمة الذكاء الاصطناعي في الاعتبار الطبيعة الاجتماعية التقنية للذكاء الاصطناعي – كتكنولوجيا، فهي تشكل المجتمعات التي تطورها أو تستخدمها وتتشكل بها. تخلق الأنماط الاجتماعية في بيانات تدريب الذكاء الاصطناعي والافتراضات أو الأحكام التي يتخذها مطورو نماذج الذكاء الاصطناعي روابط جوهرية بين الذكاء الاصطناعي وأصوله الاجتماعية. يؤثر هذا الواقع على الجميع، ولكنه يخلف تأثيرات هائلة على أولئك الذين لا ينعكسون في نماذج الذكاء الاصطناعي اليوم.
المبدأ مقابل الممارسة: تبدأ مبادئ الذكاء الاصطناعي التي يتم الترويج لها بشكل شائع، مثل الانفتاح والقدرة على التفسير، بافتراضات حول مستويات الوصول أو الوكالة الفريدة في الشمال العالمي. إن هذه الافتراضات غالبا ما تنهار خارج سياقاتها المتوقعة، مما يعيق وأحيانا حتى يقوض ترجمة المبدأ إلى ممارسة.
هذه التحديات غالبا ما تكون مترابطة من الناحية المفاهيمية والعملية. وهي أيضا ذات طبيعة نظامية ذات جذور تعود إلى ما قبل الذكاء الاصطناعي. وبالتالي لن يتم حلها بسرعة. ولكن التقدم نحو الذكاء الاصطناعي الجدير بالثقة سوف يعتمد على فهم واضح للطرق التي تعوق بها الأنظمة الحالية الثقة في الذكاء الاصطناعي على مستوى العالم. ومن هذا الفهم، نقترح مجموعة من التوصيات التي تسعى إلى معالجة هذه المخاوف ضمن حدود ما يمكن تحقيقه في الوقت الحاضر. إن مجموعة الإجراءات المطلوبة واسعة وتمتد إلى مجموعات أصحاب المصلحة وكذلك المواقع الجغرافية – أولئك في الشمال العالمي وكذلك الجنوب العالمي يمكنهم بذل المزيد لضمان أن حوكمة الذكاء الاصطناعي تؤسس الثقة للجميع. تقدم الورقة إجراءات يجب على الحكومات في الشمال العالمي والجنوب العالمي النظر فيها أثناء سعيها إلى بناء ثقة أكبر في الذكاء الاصطناعي.