أثار قرار شركة Apple بإيقاف أداة مسح الصور CSAM الخاصة بها جدلاً جديدًا

أثار قرار شركة Apple بإيقاف أداة مسح الصور CSAM الخاصة بها جدلاً جديدًا تخطط مجموعة سلامة الأطفال.

لإطلاق حملة للضغط على شركة Apple بشأن فحص مواد الاعتداء الجنسي على الأطفال.

في ديسمبر/كانون الأول، قالت شركة آبل إنها كانت تقضي على مجهودها لتصميم أداة لمسح الصور على iCloud .

للحفاظ على الخصوصية لاكتشاف مواد الاعتداء الجنسي على الأطفال (CSAM) على المنصة.

كما تم الإعلان عن المشروع في الأصل في أغسطس 2021، وكان مثيرًا للجدل منذ بدايته.

كانت شركة Apple قد أوقفتها مؤقتًا هكذا لأول مرة في شهر سبتمبر استجابةً لمخاوف مجموعات الحقوق الرقمية والباحثين.

من أن مثل هذه الأداة سيتم إساءة استخدامها واستغلالها لتهديد خصوصية وأمان جميع مستخدمي iCloud.

هذا الأسبوع، أخبرت مجموعة جديدة معنية بسلامة الأطفال تعرف باسم مبادرة Heat شركة Apple بأنها تنظم حملة لمطالبة الشركة “بالكشف والإبلاغ  وإزالة”

مواد الاعتداء الجنسي على الأطفال من iCloud .

وتقديم المزيد من الأدوات للمستخدمين للإبلاغ عن مواد الاعتداء الجنسي على الأطفال إلى مجلس الأمن.

كذلك اليوم، في خطوة نادرة، استجابت شركة Apple لمبادرة Heat،
موضحة أسباب التخلي عن تطوير ميزة المسح الضوئي على iCloud CSAM .
والتركيز بدلاً من ذلك على مجموعة من الأدوات والموارد الموجودة على الجهاز للمستخدمين المعروفة .
مجتمعة باسم ميزات أمان الاتصالات.
كما يقدم رد الشركة على مبادرة Heat، التي شاركتها شركة Apple مع WIRED هذا الصباح،
نظرة نادرة ليس فقط على الأساس المنطقي للتركيز على سلامة الاتصالات،
ولكن على وجهات نظرها الأوسع حول إنشاء آليات للتحايل على حماية خصوصية المستخدم.
مثل التشفير، لمراقبة بيانات. ويرتبط هذا الموقف بالنقاش حول التشفير على نطاق أوسع،.
خاصة وأن دولًا مثل المملكة المتحدة تدرس إصدار قوانين تتطلب من شركات التكنولوجيا
أن تكون قادرة على الوصول إلى بيانات المستخدم للامتثال لطلبات إنفاذ القانون.

أثار قرار شركة Apple بإيقاف أداة مسح الصور CSAM الخاصة بها جدلاً جديدًا.

وكتب إريك نوينشفاندر، مدير خصوصية المستخدم وسلامة الأطفال في شركة أبل.
في رد الشركة على مبادرة هيت: “إن مواد الاعتداء الجنسي على الأطفال بغيضة،
كذلك نحن ملتزمون بكسر سلسلة الإكراه والتأثير التي تجعل الأطفال عرضة لها”.
هكذا أضاف أنه بعد التعاون مع مجموعة من الباحثين في مجال الخصوصية والأمن، ومجموعات الحقوق الرقمية، والمدافعين عن سلامة الأطفال.
خلصت الشركة إلى أنها لا تستطيع المضي قدمًا في تطوير آلية فحص CSAM، حتى تلك المصممة خصيصًا للحفاظ على الخصوصية.

 

كتب نوينشفاندر: “إن فحص بيانات iCloud المخزنة بشكل خاص لكل مستخدم من شأنه أن يخلق نواقل تهديد جديدة ليتمكن لصوص البيانات من العثور عليها واستغلالها.
كما أنه من شأنه أن يؤدي إلى احتمال حدوث منحدر زلق من العواقب غير المقصودة.

على سبيل المثال،

يؤدي البحث عن نوع واحد من المحتوى إلى فتح الباب أمام المراقبة الجماعية.
وقد يخلق الرغبة في البحث في أنظمة مراسلة مشفرة أخرى عبر أنواع المحتوى.
كتب جاردنر إلى كوك: “نحن نؤمن إيمانًا راسخًا بأن الحل الذي كشفت عنه لم يضع شركة Apple كشركة رائدة عالميًا في خصوصية المستخدم فحسب.
كذلك وعد أيضًا بالقضاء على ملايين الصور ومقاطع الفيديو الخاصة بالاعتداء الجنسي على الأطفال من iCloud”.
“أنا جزء من مبادرة تطوير تضم خبراء ومدافعين معنيين بسلامة الأطفال والذين يعتزمون التعامل معك ومع شركتك، Apple.
بشأن تأخيرك المستمر في تنفيذ التكنولوجيا المهمة…
الاعتداء الجنسي على الأطفال هو قضية صعبة لا أحد يريد التحدث عنها  ولهذا السبب يتم إسكاته وتركه وراءه. نحن هنا للتأكد من عدم حدوث ذلك”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اختار العملة
يستخدم هذا الموقع ملفات تعريف الارتباط (الكوكيز) ليقدم لك تجربة تصفح أفضل. من خلال تصفح هذا الموقع ، فإنك توافق على استخدامنا لملفات تعريف الارتباط.