حماية مستخدمي ابل
هذه الأخبار ذات أهمية خاصة لأن نهج Apple المخطط له سيسمح باكتشاف مواد الاعتداء الجنسي على الأطفال (CSAM) في بيئة مشفرة – وهو الأمر الذي شكل تحديًا للجهات الفاعلة في مجال حماية الطفل لبعض الوقت.
يتم استخدام تشفير البيانات على نطاق واسع في جميع أنحاء العالم ، مما يوفر قدرًا أكبر من الأمان والخصوصية لمستخدمي الإنترنت. ولكن على الرغم من جميع فوائده للبالغين والأطفال على حد سواء ، فإن التشفير يمثل أيضًا تحديًا لأولئك الذين يسعون إلى حماية الأطفال ، ولا سيما أولئك الذين يحاولون اكتشاف محتوى الاعتداء الجنسي على الأطفال وإزالته عبر الإنترنت ومنع الاستمالة – ولجهات إنفاذ القانون التي تحاول مقاضاة الجناة.
يعتبر نهج الشركة الذي تم الإعلان عنه حديثًا أمرًا مهمًا لأن Apple قد تبنت تدابير أمان على مستوى الجهاز (جنبًا إلى جنب مع التكنولوجيا من جانب الخادم) – وهي توصية رئيسية من المائدة المستديرة لخبراء WeProtect Global Alliance التي استكشفت حلولًا للكشف عن الاستغلال الجنسي للأطفال والاعتداء عليهم أثناء موازنة مستخدمي الإنترنت ‘ الحق في الخصوصية.
الحماية الموسعة لشركة Apple
تخطط الشركة لإدخال ميزات جديدة لسلامة الأطفال في الولايات المتحدة عبر ثلاثة مجالات رئيسية:
ستعمل أدوات الاتصال الجديدة على تحذير الأطفال والآباء عند تلقي أو إرسال صور جنسية صريحة. ستستخدم خدمة iMessages من Apple التعلم الآلي على الجهاز لتحليل مرفقات الصور وتحديد ما إذا كانت الصورة جنسية صريحة (لذلك لا تستطيع Apple نفسها الوصول إلى الرسائل وبالتالي الحفاظ على التشفير التام بين الطرفين في iMessages).
لتحسين اكتشاف CSAM ، سيستخدم iOS و iPadOS أداة جديدة ، NeuralHash ، للسماح لشركة Apple باكتشاف صور CSAM المعروفة المخزنة في iCloud Photos. وفقًا لشركة Apple ، سيساعد هذا الاكتشاف الشركة في توفير المعلومات للمركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ، الذي يعمل كمركز إبلاغ لـ CSAM ويعمل بالتعاون مع وكالات إنفاذ القانون.
أخيرًا ، ستوفر تحديثات وظائف Siri و Search للآباء والأطفال معلومات إضافية ومساعدة إذا واجهوا “مواقف غير آمنة”. بالإضافة إلى ذلك ، سيتدخل كل من Siri و Search “عندما يحاول المستخدمون البحث عن مواضيع متعلقة بـ CSAM”.
لماذا هذا مهم لسلامة الطفل؟
على الرغم من أن البعض قد أثار مخاوف من أن هذه التقنيات الجديدة قد تشكل تهديدًا للخصوصية ، إلا أن الشركة تؤكد أنها قادرة على استخدام التقنيات بطريقة تحافظ على خصوصية المستخدم. هذا أمر بالغ الأهمية لأن الخصوصية هي حق أساسي لجميع الأفراد الذين يستخدمون الإنترنت ، بما في ذلك الضحايا والناجين من الاعتداء الجنسي الذين يواجهون الصدمة مرة أخرى من خلال مشاركة الإساءة التي تعرضوا لها عبر الإنترنت.
إن تحقيق التوازن بين الخصوصية وسلامة الأطفال في عالم الإنترنت المشفر بشكل متزايد ليس بالأمر السهل – ولذا فمن المشجع للغاية رؤية Apple تتعرف على التحدي وتستجيب له ، بما في ذلك من خلال استخدام تدابير الأمان على مستوى الجهاز.
بصفتنا تحالفًا ، سنعمل على الترويج للتعلم من هذا التطور بين أكثر من 200 منظمة وشركات وحكومات أعضاء لدينا ، بالإضافة إلى تشجيع الآخرين على استكشاف الحلول التي تعمل لمنصاتهم وأجهزتهم وخدماتهم والاستثمار فيها – والتي كان العديد منها كذلك تمت مناقشته كجزء من موضوع مثير للاهتمام على بوابة الحماة الجديدة الخاصة بنا للأعضاء.
لم نشهد بعد تأثير الأدوات. لكننا نعلم أنه ، في جميع المجالات ، يمكن القيام بالمزيد على وجه الخصوص للسماح باكتشاف CSAM غير المرئية سابقًا ومحاولات الاستمالة – ولضمان أن الأدوات لها نطاق جغرافي واسع وامتصاص.
ومع ذلك ، مع هذا الإعلان الأخير ، تصدر Apple بيانًا جريئًا: حماية الطفل أمر مهم.
إنها رسالة قوية ويجب سماعها في جميع أنحاء العالم. مع وجود أكثر من 21.7 مليون تقرير عن CSAM مشتبه بها تم تقديمها إلى NCMEC في عام 2020 وحده ، يجب أن يكون إيجاد حلول لإنشاء عالم رقمي أكثر أمانًا للأطفال أولوية قصوى للجميع.