في أوائل أغسطس 2021، قامت شركة Apple كشفت النقاب عن نظامها الجديد للتعرف على الصور التي تحتوي على صور لإساءة معاملة الأطفال.على الرغم من أن دوافع شركة Apple تمثلت في مكافحة نشر المواد الإباحية المتعلقة بالأطفال، حيث يحمل الأمر بادرة حسن النية بلا شك، فإن الإعلان تعرَّض لانتقادات على الفور.
لطالما طورت Apple الصورة الخاصة بها كصانع أجهزة يهتم بخصوصية المستخدم. لقد وجهت الميزات الجديدة المتوقعة لنظامي التشغيل iOS 15 وiPadOS 15 بالفعل ضربة خطيرة لتلك السمعة، لكن الشركة لا تتراجع. إليك ما حدث وكيف سيؤثر على متوسط نسبة مستخدمي أجهزة iPhone و iPad.
ماهو نظام اكتشاف CSAM
تم تحديد خطط Apple على موقع الشركة.طورت الشركة نظامًا يسمى تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection، إذ يقوم بالبحث داخل أجهزة المستخدمين عن “مواد الاعتداء الجنسي على الأطفال”، والمعروفة أيضًا باسم CSAM.
على الرغم من أن “استغلال الأطفال في المواد الإباحية” مرادف لـ CSAM، إلا أن المركز الوطني للأطفال المفقودين والمستغَلين (المركز الوطني للأطفال المفقودين والمستغلين)، الذي يساعد في العثور على الأطفال المفقودين والمستغَلين وإنقاذهم في الولايات المتحدة، يعتبر مصطلح “CSAM” المصطلح الأكثر ملاءمة. يزود المركز الوطني للأطفال المفقودين والمستغلين شركة Apple وشركات التكنولوجيا الأخرى بمعلومات حول صور مواد الاعتداء الجنسي على الأطفال CSAM المعروفة.
قدمت Apple تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال إلى جانب العديد من الميزات الأخرى التي توسع الرقابة الأبوية على أجهزة Apple المحمولة. على سبيل المثال، سيتلقى الآباء إشعارًا إذا أرسل شخص ما إلى طفلهم صورة جنسية صريحة عبر تطبيق Apple Messages.
أدى الكشف المتزامن عن العديد من التقنيات إلى بعض الارتباك، وشعر الكثير من الناس أن Apple ستراقب الآن جميع المستخدمين طوال الوقت. لكن الأمر ليس كذلك.
الخريطة الزمنية الخاصة بCSAM
ستكون تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM جزءًا من أنظمة التشغيل المحمولة iOS 15 و iPadOS 15، فستصبح متاحة لمستخدمي جميع أجهزة iPhone و iPad الحالية (iPhone 6S، والجيل الخامس من iPad وما بعده) هذا الخريف. على الرغم من أن الخاصية ستكون متاحة نظريًا على أجهزة Apple المحمولة في كل مكان في العالم، فإن النظام في الوقت الحالي سيعمل بشكل كامل فقط في الولايات المتحدة.
كيف يعمل اكتشاف CSAM
لا تعمل تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection إلا مع iCloud Photos، وهي جزء من خدمة iCloud التي تقوم بتحميل الصور من هاتف ذكي أو جهاز لوحي إلى خوادم Apple. كما تجعلها متاحة على أجهزة المستخدم الأخرى.
إذا قام المستخدم بتعطيل مزامنة الصورة في الإعدادات، فإن تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection تتوقف عن العمل. هل يعني ذلك عدم مقارنة الصور بتلك الموجودة في قواعد البيانات الجنائية إلا في خدمة التخزين السحابي؟ ليس تمامًا. النظام معقد بشكل متعمد، إذ تحاول Apple ضمان مستوى ضروري من الخصوصية.
مثل Apple توضيح، تعمل تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection عن طريق مسح الصور على ملف جهاز لتحديد ما إذا كانت تتطابق مع الصور الموجودة في قواعد بيانات المركز الوطني للأطفال المفقودين والمستغلين أو غيره من المنظمات المماثلة.
[التسمية: رسم تخطيطي مبسط لكيفية عمل تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection. Source]
تستخدم طريقة الكشف تقنية NeuralHash، التي تُنشئ في جوهرها معرفات رقمية، أو تجزئات، للصور بناءً على محتوياتها. إذا تطابقت التجزئة مع واحدة في قاعدة بيانات الصور المعروفة لاستغلال الأطفال، فسيتم تحميل الصورة وخوارزمياتها على خوادم Apple. تقوم Apple بإجراء فحص آخر قبل تسجيل الصورة رسميًا.
مكون آخر للنظام، تسمى تقنية التشفير private set intersection، حيث تعمل على تشفير نتائج فحص الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM بحيث لا تتمكن Apple من فك تشفيرها إلا في حالة استيفاء سلسلة من المعايير. من الناحية النظرية، يجب أن يمنع هذا النظام من إساءة استخدامه – أي أنه يجب أن يمنع موظف الشركة من إساءة استخدام النظام أو تسليم الصور بناءً على طلب الجهات الحكومية.
في مقابلة أُجريت في 13 أغسطس مع Wall Street Journal، صرَّح Craig Federighi، نائب الرئيس الأول لهندسة البرمجيات في شركة Apple، توضيح أن الضمان الرئيسي لبروتوكول تقاطع المجموعة الخاصة هو:تنبيه Apple، تتمثل في وجوب تطابق 30 صورة مع الصور الموجودة في قاعدة بيانات المركز الوطني للأطفال المفقودين والمستغلين. كما يوضح الرسم البياني أدناه، أن تقنية تقاطع المجموعة الخاصة لن تسمح بفك تشفير مجموعة البيانات- معلومات عن تشغيل تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM والصور – حتى الوصول إلى الحد الأدنى. وفقًا لشركة Apple، نظرًا لأن الحد الأدنى للإبلاغ عن صورة يكون عاليًا للغاية، فإن المطابقة الخاطئة أمر مستبعد جدًا- “فرصة واحدة في كل تريليون”.
[التسمية: ميزة مهمة لتقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM: لفك تشفير البيانات، يجب أن يتطابق عدد كبير من الصور. Source]
ماذا يحدث عندما يتم تنبيه النظام؟ يتحقق أحد موظفي Apple يدويًا من البيانات، ويؤكد وجود مواد إباحية للأطفال، ويبلغ السلطات. في الوقت الحالي، لن يعمل النظام بشكل كامل إلا في الولايات المتحدة، لذلك سيذهب الإخطار إلى المركز الوطني للأطفال المفقودين والمستغلين، الذي تشرف عليه وزارة العدل الأمريكية.
المشاكل الموجودة في CSAM
ينقسم النقد المحتمل لإجراءات Apple إلى فئتين: التشكيك في نهج الشركة وفحص الثغرات الأمنية في البروتوكول. في الوقت الحالي، هناك القليل من الأدلة الملموسة على أن Apple ارتكبت خطأ تقنيًا (وهي مشكلة سنناقشها بمزيد من التفصيل أدناه)، على الرغم من عدم وجود نقص في الشكاوى العامة.
على سبيل المثال، مؤسسة الحدود الإلكترونية لديها الوصف هذه القضايا بتفصيل كبير. وفقًا لـمؤسسة الحدود الإلكترونية، من خلال إضافة مسح للصور من جانب المستخدم، تقوم Apple بشكل أساسي بتضمين باب خلفي في أجهزة المستخدمين. مؤسسة الحدود الإلكترونية تمتلكالنقد الفكرة منذ عام 2019.
لمَ هذا شيء سيّئ؟ حسنًا، تأمل امتلاك جهاز يتم تشفير البيانات عليه بالكامل (كما تؤكد Apple)، إذ يبدأ بعد ذلك في إبلاغ الغرباء عن هذا المحتوى. الهدف في الوقت الحالي هو استغلال الأطفال في المواد الإباحية، ما يؤدي إلى الامتناع الشائع، “إذا لم تفعل شيئًا خاطئًا، فلا داعي للقلق”، ولكن طالما أن مثل هذه الآلية موجودة، فلا يمكننا أن نعرف أنها لن تفعل ذلك. إذ يتم تطبيقها على محتوى آخر.
في النهاية، هذا النقد سياسي أكثر منه تقني. تكمن المشكلة في عدم وجود عقد اجتماعي يوازن بين الأمن والخصوصية. كل واحد منا، من البيروقراطيين وصانعي الأجهزة ومطوري البرمجيات حتى نشطاء حقوق الإنسان والمستخدمين العاديين – نحاول تحديد هذا التوازن الآن.
تشكو وكالات إنفاذ القانون من أن التشفير الواسع النطاق يُعقِّد جمع الأدلة والقبض على المجرمين، وهذا أمر مفهوم. المخاوف بشأن المراقبة الرقمية الجماعية واضحة أيضًا. الآراء، خاصةً الآراء حول سياسات Apple وإجراءاتها، موجودة بكثرة.
المشاكل الاحتمالية في CSAM
بمجرد أن نتجاوز المخاوف الأخلاقية، نصل إلى بعض الطرق التكنولوجية الوعرة. ينتج عن أي رمز برنامج ثغرات أمنية جديدة. لا تهتم بما قد تفعله الحكومات، بالسؤال عن احتمالية استغلال مجرمو الإنترنت للثغرات أمنية في تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM؟ عندما يتعلق الأمر بتشفير البيانات، فإن القلق يكون طبيعيًا وفي محله: إذا قمت بإضعاف حماية المعلومات، حتى لو كان ذلك بنية حسنة فقط، فيمكن لأي شخص استغلال الضعف لأغراض أخرى.
بدأت للتو عملية تدقيق مستقلة لرمز تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM وقد تستغرق وقتًا طويلاً. ومع ذلك، فقد تعلمنا بالفعل بعض الأشياء.
أولاً، يحتوي الكود الذي يجعل من الممكن مقارنة الصور مقابل “نموذج” الموجود في iOS (و macOS) منذ الإصدار 14.3.من الممكن تمامًا أن يكون الرمز جزءًا من تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM. الخدمات لتجربة خوارزمية البحث لمطابقة الصور، فقد تم العثور على بعضها بالفعل التصادمات.على سبيل المثال، وفقًا لخوارزمية NeuralHash من Apple، تحتوي الصورتان أدناه على نفس التجزئة:
[التسمية: وفقًا لخوارزمية NeuralHash من Apple، تتطابق هاتان الصورتان. Source]
إذا كان من الممكن سحب قاعدة بيانات تجزئة الصور غير القانونية، فمن الممكن إنشاء صور “بريئة” تطلق تنبيهًا، مما يعني أن Apple يمكن أن تتلقى تنبيهات خاطئة كافية لجعل من تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM غير مستدامة. هذا هو السبب على الأرجح في قيام Apple بفصل تقنية الكشف، مع وجود جزء من الخوارزمية يعمل فقط في نهاية الخادم.
يوجد ايضًا التحليل برتوكول تقاطع مجموعة خاصة Apple هذا.تتمثل الشكوى أساسًا في أنه حتى قبل الوصول إلى عتبة التنبيه، ينقل نظام تقاطع المجموعة الخاصة قدرًا كبيرًا من المعلومات إلى خوادم Apple. تصف المقالة سيناريو تطلب فيه وكالات إنفاذ القانون البيانات من Apple، وتشير إلى أنه حتى التنبيهات الخاطئة قد تؤدي إلى زيارة من الشرطة.
في الوقت الحالي، ما سبق هو مجرد اختبارات أولية لمراجعة خارجية لتقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM. سيعتمد نجاحهم إلى حد كبير على الشركة السرية الشهيرة التي توفر الشفافية في أعمال تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM- وعلى وجه الخصوص، كود المصدر لديها.
ماذا يعني اكتشاف CSAM للمستخدم العادي
الأجهزة الحديثة معقدة للغاية لدرجة أنه ليس من السهل تحديد مدى أمانها حقًا – أي إلى أي مدى تفي بوعود الشركة المصنعة. كل ما يمكن أن يفعله معظمنا هو الثقة – أو عدم الثقة – في الشركة بناءً على سمعتها.
ومع ذلك، من المهم تذكر هذه النقطة الأساسية: لا تعمل تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM إلا إذا قام المستخدمون بتحميل الصور على خدمة iCloud. كان قرار Apple متعمدًا وتوقع بعض الاعتراضات على التكنولوجيا. إذا لم تقم بتحميل الصور إلى السحابة، فلن يتم إرسال أي شيء إلى أي مكان.
قد تتذكر الحادثة سيئ السمعة النزاع بين Apple ومكتب التحقيقات الفيدرالي في عام 2016، عندما طلب مكتب التحقيقات الفيدرالي من Apple المساعدة في فتح iPhone 5C الذي يعود إلى مطلق النار الجماعي في سان برناردينو، كاليفورنيا. أراد مكتب التحقيقات الفيدرالي من شركة آبل أن تكتب برنامجًا يتيح لمكتب التحقيقات الفيدرالي الالتفاف على خاصية حماية كلمة المرور للهاتف.
وقد رفضت الشركة، حيث أدركت أن الامتثال قد يؤدي إلى فتح ليس فقط هاتف مطلق النار ولكن أيضًا هاتف أي شخص. تراجع مكتب التحقيقات الفيدرالي وانتهى به الأمر باختراق الجهاز بمساعدة خارجية، استغلال الثغرات الأمنية في البرنامج، وحافظت Apple على سمعتها كشركة تناضل من أجل حقوق عملائها.
ومع ذلك، فإن القصة ليست بهذه البساطة. قامت Apple بتسليم نسخة من البيانات من خدمة iCloud. في الواقع، الشركة لديه حق الوصول عمليا أي بيانات للمستخدم تم تحميلها على خدمة التخزين السحابية. البعض مثل كلمات مرور Keychain ومعلومات الدفع، يتم تخزينها باستخدام التشفير من طرف إلى طرف، ولكن يتم تشفير معظم المعلومات فقط للحماية منها unsanctioned الوصول – أي من اختراق خوادم الشركة. هذا يعني أن الشركة يمكنها فك تشفير البيانات.
قد تكون الآثار المترتبة على تطور الحبكة الأكثر إثارة للاهتمام في قصة تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM. يمكن للشركة، على سبيل المثال، مسح جميع الصور الموجودة في صور iCloud (مثل Facebook و Google والعديد من مزودي الخدمات السحابية الآخرين). ابتكرت Apple آلية أكثر أناقة من شأنها أن تساعدها في صد اتهامات المراقبة الجماعية للمستخدمين، ولكنها بدلاً من ذلك وجهت انتقادات أكثر – لفحص أجهزة المستخدمين.
في النهاية، بالكاد يغير الصخب أي شيء للمستخدم العادي. إذا كنت قلقًا بشأن حماية بياناتك، فيجب أن تنظر إلى any خدمة سحابية بعين ناقدة. لا تزال البيانات التي تخزنها على جهازك فقط آمنة. لقد أدت الإجراءات التي اتخذتها شركة Apple مؤخرًا إلى بث الشكوك القائمة على أسس جيدة. ما إذا كانت الشركة ستستمر في هذا السياق يظل سؤالًا مفتوحًا.