أداة مسح الصور على iCloud من Apple مزعجة. هل هناك أمل في ذلك؟

click fraud protection

في أغسطس من هذا العام ، تفاحأعلنت ميزة جديدة لسلامة الأطفال لفحص مكتبة iCloud للبحث عن صور مواد الاعتداء الجنسي على الأطفال (CSAM) وإبلاغ السلطات عنها وفقًا لذلك. سيتم تخزين الميزة في iOS و iPadOS. سيبحث عن الصور قبل تخزينها على خدمة السحابة من Apple. قوبل الإعلان بمقاومة كبيرة من دعاة الخصوصية ومجتمع البحث الذي لديه خبرة في التعامل مع مثل هذه التكنولوجيا.

حصلت Apple على تعليقات من مجموعات سلامة الأطفال وخبراء في الأمن السيبراني أشادوا بالمبادرة. ولكن بالنسبة لشركة قاومت محاولات تجاوز تشفير iPhone ، حتى بالنسبة لسلطات إنفاذ القانون ، فقد تم تشبيه خطوة Apple بـ باب خلفي ضيق النطاق يمكن توسيعها حسب رغبتها أو تحت ضغط. تحدثت مستندات Apple المطولة عن فعالية النظام وكيف أنه لا يؤثر على الخصوصية ، ولكن لا يزال هناك الكثير من المخاوف. السؤال الأول هو ما إذا كان نطاق المحتوى المرفوض سيظل مقصورًا على صور CSAM أو إذا كانت Apple ستتزحزح تحت ضغط سياسي.

ولاء Apple لمفاهيم مثل "حرية التعبير" تتدفق في مجرى مختلف في الصين، مقارنة بما تعلنه الشركة في الولايات المتحدة أو بقية العالم. تقول Apple إنها لن تقدم أي تنازلات ، ولكن في بلد يشكل العمود الفقري لعمليات التصنيع و تمثل جزءًا كبيرًا من الإيرادات ، فإن مخاطر عدم الامتثال لإرادة الحكومة كبيرة للغاية عالي. شددت روسيا ودول أفريقية متعددة مؤخرًا القيود المفروضة على المنصات حول المحتوى الذي يُعتبر مرفوضًا وتضغط على الشركات لتسليم المزيد من البيانات. الباحثون

قل يعد نظام فحص CSAM من Apple تقنية خطيرة وثغرة في الخصوصية تنتظر من يتم استغلالها. في الوقت نفسه ، أطلق عليها البعض حتى بداية نظام المراقبة الجماعية لأورويل في زي سلامة الأطفال.

تحتاج التفاح إلى أن تكون استباقية وليست أبهى

لقد تحدثت شركة Apple بشكل مكثف عن دقة النظام ، لكن المتسللين تمكنوا بالفعل من خداع أحد نسخة مبكرة منه إلى توليد إنذار إيجابي كاذب عند تعريضه لصورة غير CSAM ، وفقًا إلى نائب. تقول الشركة إنها يجب أن تلتزم بالقوانين الأمريكية حول المحتوى غير المناسب وتقوم بتوريد قاعدة بيانات CSAM من NCMEC (المركز الوطني للأطفال المفقودين والمستغلين). ومع ذلك ، قد تطلب دول أخرى من Apple الاعتماد على تجزئات صور CSAM من منظمات سلامة الأطفال المحلية ، والتي قد لا تكون فعالة وستزيد من تعقيد عملية تطوير نظام تم تأجيله بالفعل. لم تقم Apple أيضًا ببناء أي إطار عمل موثوق به حول ميزة تنبيه الوالدين CSAM والتي يمكن أن تكون مشكلة للأطفال في المنازل المسيئة.

ولكن هناك فرق بين قول "نعم ، هذا أمر شبه مؤكد ، من الناحية النظرية" ورؤيته يحدث في الحياة الواقعية. لقد بذلت Apple قصارى جهدها للحفاظ على سرية وظيفة التجزئة - لأنهم كانوا يعرفون المخاطر.

- ماثيو جرين (matthew_d_green) 18 أغسطس 2021

لاشك ان المبادرة نبيلة الا لشركة تفخر بالخصوصية و أمن نظامها الإيكولوجي ، فهي تحتاج إلى القيام بأكثر من مجرد إصدار أوراق الأسئلة الشائعة والتقليل من المخاطر في المقابلات. لا يتعين على Apple إغلاق المشروع. ما يجب أن تفعله هو معالجة العيوب المتصورة وتقديم أكثر من مجرد ضمان شفهي. تحتاج Apple إلى معاملة عملائها باعتبارهم أصحاب مصلحة عندما يتعلق الأمر بالخصوصية ، وإذا أمكن ، تقديم ضمان ملزم قانونًا بعدم استغلال نظام CSAM. بهذه الطريقة ، سيثق الملايين من مستخدمي iPhone في ذلك يمكنهم تحميل Apple المسؤولية والحصول على تعويض عن الأضرار في حالة انتهاك خصوصيتهم.

عبر واشنطن بوستيقول خبراء الأمن السيبراني الذين عملوا سابقًا في مشاريع مماثلة إن الفكرة برمتها خطيرة ، بينما يزعم المدافعون عن الخصوصية أنها تشكل سابقة خطيرة. تحتاج Apple إلى إجراء حوار شفاف ومفتوح مع مجتمع الأمن السيبراني والتأكد من ذلك من خلال العروض العملية نظام المسح الضوئي للصور CSAM لا يمكن خداعها أو استغلالها. سيستغرق القيام بذلك بعض الوقت والكثير من الحذر ، ولكنه سيقطع شوطًا طويلاً نحو معالجة المخاوف المشروعة.

تقع على عاتق شركة Apple مسؤولية الانخراط في حوار بناء مع الخبراء والوصول إلى حل وسط يمكن أن تتحسن فيه تقنية المسح CSAM دون أن تكون غازية. تمتلك الشركة بالتأكيد مدى الوصول والموارد لتحقيق ذلك. إن عدم القيام بذلك سيكون موقفًا متعجرفًا - موقفًا سيخون في النهاية تفاحمبادئ الخصوصية الخاصة جدًا. والأهم من ذلك ، أنه سيفتح الباب على مصراعيه لمزيد من الأنظمة الغازية التي تهدد خصوصية المليارات من مستخدمي الهواتف الذكية ، مما يتركهم تحت رحمة الشركات الفاحشة والسلطوية الحكومات.

مصادر: arXiv, نائب, واشنطن بوست

يقول مُبلغ فيسبوك إن الشركة ليس لديها الإرادة لجعل التطبيقات آمنة

نبذة عن الكاتب