تبدأ Apple في مسح صور iPhone ضوئيًا كجزء من إجراءات سلامة الأطفال الجديدة

click fraud protection

تفاح إدخال تقنية جديدة على آيفون وأجهزة iPad التي ستجري فحصًا على الجهاز للبحث عن صور مواد الاعتداء الجنسي على الأطفال (CSAM) ، و وفقًا لذلك ، ستبلغ المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) لحمايتها الأطفال. لطالما اتبعت Apple نهجًا متشددًا عندما يتعلق الأمر باختراق هاتف iPhone وتصفح البيانات المخزنة عليه. حتى أن الشركة أفلتت من ضغوط سلطات إنفاذ القانون لمنحهم إمكانية الوصول إلى الباب الخلفي والاحتفاظ بهم تعزيز جدران الحماية الأمنية الأساسية على مستوى نظام التشغيل لإحباط محاولات الاختراق بواسطة أدوات فتح متطورة مثل GrayKey.

بدأت الشركة مؤخرًا في الترويج لموقفها المؤيد للخصوصية بشكل أكثر قوة ، والذي يشمل كل شيء من إرسال الإخطارات حول التطبيقات التي يُحتمل أن تشكل تهديدًا أمنيًا لمطالبة التطبيقات بمطالبة المستخدمين صراحةً بمنح بعض الوصول إلى البيانات وأذونات التتبع. في الواقع ، جعلت الشركة من إلزام المطورين الكشف ، بالتفصيل ، عن جميع البيانات التي تجمعها تطبيقاتهم وكيفية مشاركتها عبر ملصقات التغذية. بتجميع الدفعة الكاملة كجزء من مبادرة شفافية تتبع التطبيقات ، تحاول Apple إنشاء صورة ملف النظام البيئي حيث يمكن للمستخدمين الاختيار بين الحفاظ على بصمتهم الرقمية عند الحد الأدنى أو السماح بالتتبع للرؤية الإعلانات المخصصة. الأمر كله يتعلق بالخصوصية والاختيار ، أو هكذا تقول Apple.

هذا ما يجعل آبل أحدث إجراءات سلامة الطفل صبي مثير للجدل ، على الرغم من كل وعود عرض الحفاظ على جانب الخصوصية كما هو. سيتم إدخال نظام Apple الجديد في نظامي iOS و iPadOS ، وسوف يقوم فقط بفحص صور إساءة معاملة الأطفال على الصور مخزنة في صور iCloud. ومع ذلك ، فإن الصورة التي تم مسحها ضوئيًا لن تحدث في السحابة. بدلاً من ذلك ، ستكون عملية على الجهاز. قبل تخزين الصورة في iCloud ، سيتم إجراء مسح على الجهاز مقابل مجموعة من تجزئات صور CSAM التي أنشأتها NCMEC وعدد قليل من مؤسسات سلامة الأطفال الأخرى. يتم تحويل قاعدة البيانات الكاملة لتجزئة صور CSAM إلى مجموعة غير قابلة للقراءة من التعليمات باستخدام التشفير ويتم تخزينها على الجهاز نفسه. من المقرر أن تصل أداة الكشف عن CSAM مع نظام التشغيل iOS 15 و iPadOS 15 التي من المقرر إصدارها في وقت لاحق من هذا العام

تضمن Apple بقاء خصوصية المستخدم كما هي

في حالة حدوث تطابق مع علامات صورة CSAM ، يتم تحويل النتيجة على الفور إلى ما تسميه Apple قسيمة أمان مشفرة ، ثم يتم تحميلها على السحابة. هذا هو المكان الذي تبدأ فيه عملية أخرى ، مشاركة سرية عتبة ، حيز التنفيذ. عندما يصل عدد الصور المطابقة التي تم الإبلاغ عنها على أنها ضارة إلى حد محتوى CSAM المعروف ، فإن Apple تكون كذلك قادرًا على تفسير المحتويات وإجراء مراجعة بشرية لاحقًا للتأكد من أن هذه الصور تنتهك بالفعل CSAM القواعد الارشادية. بمجرد الانتهاء من التأكيد ، ستتخذ Apple إجراءات عقابية مثل تعطيل حساب المستخدم وإرسال تقرير إليه سلطات إنفاذ القانون. بالطبع ، سيكون لدى المستخدمين خيار تقديم استئناف إذا شعروا أنه قد تم اتخاذ إجراء عقابي خاطئ ضدهم.

نعم هناك مخاوف الخصوصية، لكن شركة Apple حاولت الإجابة عن بعض الأسئلة الملحة في ورقتها الفنية لاكتشاف CSAM. لا تستطيع Apple قراءة الصور التي لا تتطابق مع تجزئات CSAM للمحتوى المزعج. لن تتمكن الشركة من الوصول إلى البيانات الوصفية أو إجراء هندسة عكسية لمشتقات الصورة التي تم الإبلاغ عنها ، إلا إذا كان الرقم من صور CSAM تصل إلى عتبة ، وهي عندما تبدأ عملية المراجعة البشرية للحصول على تقييم أكثر دقة للإشارة إلى وسائط. تقول Apple إن دقة نظام الكشف عن CSAM عالية للغاية ، وتضيف عملية المراجعة البشرية إلى جانب المصداقية. علاوة على ذلك ، لن يتمكن المستخدمون من تحديد الصورة التي تم الإبلاغ عنها بواسطة نظام الكشف الخاص بشركة Apple ، ولن يتمكنوا أيضًا من الوصول إلى قاعدة بيانات الصور التي قد تكون ضارة.

مصدر: تفاح

خطيب 90 يومًا: تانيا تشارك تاريخها مع العنف المنزلي وسوء المعاملة

نبذة عن الكاتب