السلامة العالمية للذكاء الاصطناعي تعوقها التردد والتأخيرات التنظيمية
تسعى الحكومات إلى إنشاء ضمانات أمنية حول الذكاء الاصطناعي، لكن الحواجز والتردد يؤخران الاتفاقيات عبر الوطنية بشأن الأولويات والعقبات التي يجب تجنبها.
في نوفمبر 2023، نشرت بريطانيا العظمى إعلان بلتشلي، حيث وافقت على تعزيز الجهود العالمية للتعاون في مجال سلامة الذكاء الاصطناعي مع 28 دولة، بما في ذلك الولايات المتحدة والصين والاتحاد الأوروبي.
واستمرت الجهود في متابعة لوائح سلامة الذكاء الاصطناعي في مايو مع القمة العالمية الثانية للذكاء الاصطناعي، والتي ضمنت خلالها المملكة المتحدة وجمهورية كوريا التزامًا من 16 شركة عالمية للتكنولوجيا الذكية بمجموعة من نتائج السلامة بناءً على تلك الاتفاقية.
وقالت بريطانيا في بيان منفصل مصاحب للإعلان: “يحقق الإعلان أهداف القمة الرئيسية من خلال إرساء اتفاق مشترك ومسؤولية بشأن المخاطر والفرص وعملية متقدمة للتعاون الدولي بشأن سلامة الذكاء الاصطناعي والبحث، وخاصة من خلال تعاون علمي أكبر”.
أصبح قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي تم اعتماده في مايو، أول قانون رئيسي في العالم ينظم الذكاء الاصطناعي. يتضمن القانون سلطات إنفاذ وعقوبات، مثل غرامات بقيمة 38 مليون دولار أو 7٪ من عائداتها العالمية السنوية إذا انتهكت الشركات القانون.
بعد ذلك، في استجابة متأخرة، أوصت مجموعة من أعضاء مجلس الشيوخ الأمريكي من الحزبين بأن يقوم الكونجرس بصياغة تشريع إنفاق طارئ بقيمة 32 مليار دولار للذكاء الاصطناعي ونشرت تقريرًا يقول إن الولايات المتحدة بحاجة إلى الاستفادة من فرص الذكاء الاصطناعي ومعالجة المخاطر.
قال جوزيف ثاكر، كبير مهندسي الذكاء الاصطناعي وباحث الأمن في شركة أمان SaaS AppOmni، لـ TechNewsWorld: “تحتاج الحكومات بالتأكيد إلى المشاركة في الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بقضايا الأمن القومي. نحن بحاجة إلى الاستفادة من فرص الذكاء الاصطناعي ولكن أيضًا الحذر من المخاطر. الطريقة الوحيدة للحكومات للقيام بذلك هي أن تكون على علم، والاطلاع يتطلب الكثير من الوقت والمال”.
أمان الذكاء الاصطناعي ضروري لمنصات SaaS
يزداد أمان الذكاء الاصطناعي أهمية يوميًا. لاحظ ثاكر أن كل منتج برمجي تقريبًا، بما في ذلك تطبيقات الذكاء الاصطناعي، يتم بناؤه الآن كتطبيق برمجي كخدمة (SaaS). ونتيجة لذلك، فإن ضمان أمن وسلامة منصات SaaS هذه سيكون أمرًا بالغ الأهمية.
وقال: “نحن بحاجة إلى تدابير أمنية قوية لتطبيقات SaaS. يجب أن يكون الاستثمار في أمن SaaS أولوية قصوى لأي شركة تعمل على تطوير أو نشر الذكاء الاصطناعي”.
وأضاف أن بائعي SaaS الحاليين يضيفون الذكاء الاصطناعي إلى كل شيء، مما يزيد من المخاطر. ويجب على الوكالات الحكومية أن تأخذ هذا في الاعتبار.
استجابة الولايات المتحدة لاحتياجات سلامة الذكاء الاصطناعي
يريد ثاكر من حكومة الولايات المتحدة أن تتبنى نهجًا أسرع وأكثر عمدية لمواجهة حقائق عدم وجود معايير سلامة الذكاء الاصطناعي. ومع ذلك، أشاد بالتزام 16 شركة رئيسية للذكاء الاصطناعي بإعطاء الأولوية للسلامة والنشر المسؤول لنماذج الذكاء الاصطناعي الرائدة.
وقال: “هذا يُظهر وعيًا متزايدًا بمخاطر الذكاء الاصطناعي والاستعداد للالتزام بتخفيفها. ومع ذلك، فإن الاختبار الحقيقي سيكون مدى نجاح هذه الشركات في الوفاء بالتزاماتها ومدى شفافيتها في ممارسات السلامة الخاصة بها”.