شريط الأخبار

الذكاء الصناعي ثورة أم حرب؟

هل الذكاء الاصطناعي ثورة أم حرب؟ إله أم حيوان أليف؟ مطرقة أم مسمار؟ هل نحتاج حقًا إلى المزيد من الاستعارات لوصفها؟ في الوقت الحاضر ، تملي الذكاء الاصطناعي المعلومات التي يتم تقديمها إلينا على وسائل التواصل الاجتماعي ، والإعلانات التي نراها ، والأسعار التي نعرضها على الإنترنت وخارجها. يمكن للخوارزمية من الناحية الفنية كتابة الكتب وتحليلها ، والتغلب على البشر في كل لعبة يمكن تصورها ، وإنشاء الأفلام ، وتأليف الأغاني الكلاسيكية ، ومساعدة السحرة على أداء حيل أفضل. وبعيدًا عن الفنون ، فإنه يتمتع أيضًا بإمكانية تشجيع اتخاذ قرارات أفضل وإجراء التشخيصات الطبية وحتى حل بعض التحديات الإنسانية الأكثر إلحاحًا. إنها متداخلة مع العدالة الجنائية والتعليم والتجنيد والرعاية الصحية والخدمات المصرفية والزراعة والنقل والحرب والتأمين … والقائمة تطول.
ومع ذلك ، فإننا كثيرًا ما ننشغل في مناقشة خصوصيات وعموميات ما إذا كان بإمكان الذكاء الاصطناعي القيام بشيء ما ، ونادرًا ما نسأل عما إذا كان يجب علينا تصميمه على الإطلاق.
هذا هو المكان الذي تأتي فيه الأخلاق. لقد أدركت الشركات والحكومات على حد سواء أن الإحصائيات المتعلقة بالمنشطات قادرة على إحداث ضرر كبير ، وتدرس طرقًا مختلفة للتعامل مع التداعيات المحتملة دون التأثير على النتيجة النهائية أو الميزة الجيوسياسية الاستراتيجية. لقد توصلوا إلى عشرات “المبادئ” ، كل منها غير قابل للتنفيذ أكثر من التالي ، وفشلوا حتى في الاتفاق على إطار عمل أساسي. مناقشة الحرب والأتمتة والمراقبة الجماعية والاستبداد أمر بالغ الأهمية ؛ لكن هذه المناقشات لا يمكن أن تتم قبل الاتفاق على المبادئ الأخلاقية الرئيسية والخطوط الحمراء.
على هذا النحو ، يوجد أدناه دليل “سريع” للمناقشات المتعلقة بالذكاء الاصطناعي والأخلاق. تهدف إلى المساعدة في إضفاء الطابع الديمقراطي على المحادثات: لسنا بالضرورة بحاجة إلى أشخاص أكثر ذكاءً على الطاولة (وأي شيء أكتبه لن يكون خبراً للخبير) ، لكننا نحتاج إلى طاولة أكبر. أو المزيد من الجداول. أو المزيد من المقاعد. أو نوع من حل مؤتمر الفيديو.
أكره الاستعارات.
يمكن أن تعني الأخلاق أشياء مختلفة كثيرة
قبل أن نتعمق في النقاش المعاصر حول الأخلاق ، نحتاج أولاً إلى فهم ماهية الأخلاق. الأخلاق لها تعريف قاموس مباشر جدًا:
“المبادئ الأخلاقية التي تحكم سلوك الشخص أو إجراء النشاط”.
هذا هو أقصى ما يمكن لأي شخص الوصول إليه قبل أن يأتي المعارضون مثلي لإفساد متعة الجميع. كما ترى ، حتى لو فصلنا الأخلاق المعيارية (دراسة الفعل الأخلاقي) عن الأخلاق الميتة والأخلاقيات التطبيقية لأبناء عمومتها ، فلا يوجد حتى الآن تعريف واحد لما هو جيد / سيئ و / أو خطأ / صواب. بل إن الخير قد يكون خاطئًا ، والشر قد يكون صحيحًا.
في ما يلي مدارس الأفكار التي يجب معرفتها من أجل فهم أفضل لسبب عدم ارتباط المقترحات الحالية بشأن أخلاقيات الذكاء الاصطناعي بالمبادئ الأخلاقية:
• العواقبية. TL ؛ DR = أعظم سعادة لأكبر عدد هو أساس الأخلاق والتشريع ، ويعرف أيضًا باسم “الغايات تبرر الوسيلة”. ابن العم المقرب: النفعية.
• علم الأخلاق. TL ؛ DR = من واجبنا أن نفعل الصواب دائمًا ، حتى لو أدى إلى عواقب سلبية. “ما تتجنب معاناة نفسك تسعى إلى عدم فرضه على الآخرين” (إبيكتيتوس ، المعروف أيضًا باسم الرجل الأكثر شهرة في الفلسفة – وهو أيضًا رواقي). قريب قريب: Kantianism.
• مذهب المتعة. TL ؛ DR = تعظيم الإشباع الذاتي هو أفضل شيء يمكننا القيام به كأفراد.
• الحدس الأخلاقي. TL ؛ DR = من الممكن معرفة ما هو أخلاقي دون معرفة مسبقة بمفاهيم أخرى مثل الخير أو الشر.
• البراغماتية. TL ؛ DR = الأخلاق تتطور ، والقواعد يجب أن تأخذ ذلك في الاعتبار.
• عواقبية الدولة. TL ؛ DR = كل ما هو جيد للدولة هو أخلاقي.
• الأخلاق الفضيلة؛ TL ؛ DR = الفضيلة هي سمة شخصية تنبع من إعطاء الأولوية للخير مقابل الشر من خلال المعرفة. إنه منفصل عن فعل أو شعور. قريب قريب: الرواقية.
الدرس الأول: إذا أخبركت شركة أو حكومة بمبادئها الأخلاقية ، فمن واجبك البحث والسؤال عن الفرع الأخلاقي الذي تستند إليه هذه المبادئ. يمكن العثور على الكثير من المعلومات في مثل هذه التعريفات.
من المهم طرح هذا السؤال ، لأنه كما نرى أدناه ، تحب المؤسسات استخدام كلمة أخلاقي دون الاقتراب فعليًا من أي شيء يشبه المبدأ الأخلاقي (يرجى الرجوع إلى عنوان هذه المقالة للتحقق المنتظم من صحة العقل). ومع ذلك ، فإن الخبر السار هو أنه لا يوجد ارتباط حرفي بين معرفة الكثير عن الأخلاق والتصرف بشكل أخلاقي.
“مسرح الأخلاق” يبتلى الشركات
توجد الشركات لمكافأة المساهمين. على الأقل ، هذه هي فلسفة العمل التي تم تبنيها على مدار الخمسين عامًا الماضية. على هذا النحو ، ليس لدى الشركات أي حافز للقيام “بالصواب” أو “الخير” ، ما لم تكن أرباحها في خطر. كل ما يهمهم ، من الناحية الفنية ، هو أن العملاء يرون أنهم يفعلون الخير / الحق. مسرح الأخلاقيات هو فكرة أن الشركات ستبذل قصارى جهدها لتبدو لتبذل قصارى جهدها للتصرف بشكل أخلاقي ، دون القيام بذلك ، من أجل منع رد فعل المستهلك. الطريقة المثلى للقيام بذلك هي الإعلان عن المبادئ والقواعد الكبرى غير الملزمة التي لا ترتبط بأي شكل من الأشكال بالأخلاق الفعلية ، والإشارة إليها

مسؤولية المسائلة
“تعيين مسؤول أخلاقي رائد للذكاء الاصطناعي” (IBM) ، “يتحمل مصممو ومطورو الذكاء الاصطناعي مسؤولية النظر في تصميم الذكاء الاصطناعي ، والتطوير ، وعمليات اتخاذ القرار ، والنتائج” (IBM) ، و “كن مسؤولاً أمام الناس” (Google) ؛ “يجب أن تتمتع أنظمة الذكاء الاصطناعي بمساءلة حسابية” (Microsoft).
سبب كونها B-S: أولاً ، ومثل العديد من النقاط أدناه ، لا يتعلق أي من هذا بالأخلاق في حد ذاتها ، حتى مع وجود الكلمة نفسها في عنوان بعض الأوراق. ثانيًا ، لم يُكتب في أي مكان أن المديرين التنفيذيين يجب أن يكونوا مسؤولين أمام قانون الأرض ، ومنحهم حرية التصرف في فعل ما يريدون بحق الجحيم. في الواقع ، يوجد القليل من القوانين التي تسود الذكاء الاصطناعي ، ولكن هذا هو سبب امتلاكنا للأخلاق ؛ لم يذكر في أي مكان المعايير التي ستخضع الشركات للمساءلة أو المسؤولية عنها. علم الأخلاق؟ العواقبية؟ لا أحد يخمن في هذه المرحلة.
الشفافية
“لا تخفي الذكاء الاصطناعي الخاص بك” (آي بي إم) ، “اشرح الذكاء الاصطناعي الخاص بك” (آي بي إم) ، “يجب تصميم الذكاء الاصطناعي للبشر لإدراك عملية اتخاذ القرار واكتشافها وفهمها بسهولة” (آي بي إم) ، “يجب أن تكون أنظمة الذكاء الاصطناعي مفهومة ” (مايكروسوفت).
لماذا هو B-S: لن أخوض في الكثير من التفاصيل هنا لأن هذا أكثر تقنيًا من نظري (إليك دليل سريع) ، لكن الذكاء الاصطناعي هو صندوق أسود بطبيعته. من أجل الحصول على شفافية كاملة ، يتعين على الشركات توفير أجزاء من التعليمات البرمجية الخاصة بها ، وهو أمر تمت مناقشته ولكن (من الواضح) أنه يعارض بشدة. يأتي الحل الآخر من “حق التفسير” في اللائحة العامة لحماية البيانات ، ويركز على المدخلات بدلاً من المخرجات. يفرض الحق المذكور أن يكون المستخدمون قادرين على المطالبة بالبيانات وراء القرارات الخوارزمية المتخذة لهم. هذه فكرة رائعة ، لكن لا يتم تنفيذها في أي مكان خارج أوروبا.
الإنصاف / التحيز
“اختبر الذكاء الاصطناعي الخاص بك من أجل التحيز” (IBM) ، “يجب تصميم الذكاء الاصطناعي لتقليل التحيز وتعزيز التمثيل الشامل” (IBM) ؛ “تجنب إنشاء أو تعزيز التحيز غير العادل” (Google) ، “يجب أن تعامل أنظمة الذكاء الاصطناعي جميع الأشخاص بإنصاف” (Microsoft).
سبب كونها B-S: قد يعثر النظام الذي تم إنشاؤه للعثور على أنماط في البيانات على أنماط خاطئة. هذا هو أبسط تعريف لتحيز الذكاء الاصطناعي. تساعد هذه الكلمة الطنانة الشركات على الابتعاد عن الموضوعات الصعبة ، مثل التمييز على أساس الجنس أو العنصرية أو التفرقة العمرية. لا قدر الله عليهم أن يسألوا أنفسهم أسئلة صعبة ، أو أن يحاسبوا على مجموعة البيانات التي يستخدمونها. لدينا كل الحق (الواجب) في المطالبة بالتحيز الذي يتم التعامل معه بالضبط ، وكيف.
البيانات والخصوصية
“يجب تصميم الذكاء الاصطناعي لحماية بيانات المستخدم والحفاظ على سلطة المستخدم على الوصول والاستخدامات” (شركة IBM) ؛ “دمج مبادئ تصميم الخصوصية” (Google) ، “يجب أن تكون أنظمة الذكاء الاصطناعي آمنة وتحترم الخصوصية” (Microsoft).
سبب كونها B-S: إذا كانوا مهتمين حقًا ، لكانوا قد طبقوا المعيار الأوروبي (كل الترحيب باللائحة العامة لحماية البيانات). ليس لديهم. القضية مغلقة.
تم ذكر الأخلاق بشكل حقيقي مرتين فقط في العديد من التقارير التي قرأتها:
“يجب تصميم الذكاء الاصطناعي بحيث يتماشى مع معايير وقيم مجموعة المستخدمين في الاعتبار.” (آي بي إم)
لن نصمم أو ننشر الذكاء الاصطناعي في مجالات التطبيق التالية: التقنيات التي تسبب أو يحتمل أن تسبب ضررًا عامًا. عندما يكون هناك خطر مادي للضرر ، فإننا سنمضي قدمًا فقط عندما نعتقد أن الفوائد تفوق المخاطر بشكل كبير ، وسندمج قيود السلامة المناسبة “. (جوجل)
يخبرنا هذا أن شركة IBM تؤمن بالبراغماتية (عادل بما فيه الكفاية) ، بينما Google هي شركة عواقبية. هذا أمر غريب ، لأن “لا تفعل شرًا” ، شعار الشركة القديم ، هو من الناحية الفنية علم الأخلاق. يسلط هذا الانقسام الضوء على إهمال صارخ: تحدد إحدى أكبر الشركات في العالم مبادئ الذكاء الاصطناعي التي قد يكون لها تأثير بعيد في المجتمع بينما تتعارض في الوقت نفسه مع ثقافتها الداخلية. يبدو هذا مثل المبالغة في التحليل حتى تدرك أنه كان هناك العديد من ثورات الموظفين الداخلية داخل Google خلال الأشهر القليلة الماضية لهذا السبب بالذات.
ربما لاحظت أنه تم ذكر أسماء ثلاث شركات فقط أعلاه (Google و IBM و Microsoft). يرجع السبب في ذلك إلى أن شركات الذكاء الاصطناعي الكبرى الأخرى لم تنتج بعد أي شيء يستحق أن يتم انتقاؤها ، وتختار بدلاً من ذلك الاستثمار في مراكز الفكر التي ستؤثر في النهاية على الحكومات. تسلط هذه النقطة الضوء على عيب رئيسي مشترك بين جميع المبادئ: لا شيء يعرض أن تخضع الشركات نفسها لقواعد قابلة للتنفيذ. لماذا إذن تهتم الشركات بمسرح الأخلاق؟ السبب الأول ، كما هو موضح أعلاه ، هو بالفعل التأثير على الحكومات وتوجيه المحادثة في الاتجاه “الصحيح” (انظر أدناه أوجه التشابه في المعايير بين أولويات الشركة والحكومة). ثانيًا ، من الجيد أن يُنظر إلى العملاء والموظفين على أنه سلوك أخلاقي ، وذلك لتجنب أي مقاطعة. ثالثًا ، وربما الأهم من ذلك ، هناك أموال طائلة يجب جنيها من أجل وضع معيار: براءات الاختراع × الاستخدام العالمي = $ $.
الدرس الثاني: تعرف الشركات القليل جدًا عن الأخلاق ، وليس لديها حوافز لاتخاذ موقف بشأن ما هو جيد أو صحيح. أخلاقيات الشركة تناقض لفظي.

مواضيع ذات صلة

التعليقات مغلقة.

Developed By: HishamDalal@gmail.com