استرالیا اپل و مایکروسافت را به «نادیده‌گرفتن سوءاستفاده جنسی از کودکان» متهم کرد

استرالیا اعتقاد دارد عقب‌نشینی اپل از فعال کردن سیستم CSAM در آیفون، تصمیمی اشتباه است و بزرگان صنعت فناوری باید اهمیت بیشتری به حفظ امنیت کودکان بدهند.

اپل سال گذشته قصد داشت سیستم جدیدی برای اسکن کردن تصاویر آی‌کلاد روی کار بیاورد تا محتوای CSAM (سوءاستفاده‌ی جنسی از کودکان) را شناسایی کند، اما در نهایت اعلام کرد که برنامه‌هایش را لغو کرده است. با وجود لغو رسمی، این طرح همچنان حاشیه‌سازی می‌کند.

یک نهاد رگولاتوری در استرالیا، اپل را به نادیده گرفتن سوءاستفاده‌ی جنسی از کودکان متهم کرده است. این نهاد می‌گوید دو شرکت اپل و مایکروسافت نتوانسته‌اند اقدامات کافی برای «حفاظت از آسیب‌پذیرترین گروه دربرابر سودجوترین گروه» انجام دهند.

براساس نوشته‌ی رویترز،‌ دفتر کمیسر امنیت الکترونیک در استرالیا می‌گوید: «پس از ارسال درخواست‌های قانونی به شماری از بزرگ‌ترین شرکت‌های اینترنتی دنیا، پاسخ‌ها نشان داد اپل و مایکروسافت به‌طور فعالانه سرویس‌های ذخیره‌سازی آی‌کلاد و وان‌درایو را برای یافتن محتوای سوءاستفاده‌ی جنسی از کودکان اسکن نمی‌کنند.» استرالیا در ادامه اضافه می‌کند که عقب‌نشینی اپل از فعال کردن سیستم CSAM «قدم روبه‌عقب بزرگی» بود.

به گزارش ۹to5Mac، به‌طور معمول سرویس‌های ابری مثل Google Photos تصاویر آپلودشده را اسکن و آن‌ها را با دیتابیسی به‌نام تصاویر CSAM مقایسه می‌کنند تا تصاویری را که شامل سوءاستفاده‌ی جنسی از کودکان هستند شناسایی کنند. این دیتابیس توسط NCMEC (مرکز ملی کودکان مفقود و مورد سوءاستفاده قرارگرفته) و سازمان‌های مشابه در سراسر دنیا ارائه می‌شود.

در فرایند تطبیق تصاویر از چیزی تحت عنوان هَش (یا اثرانگشت دیجیتالی) استفاده می‌شود. هش مبتنی‌بر بخش‌های کلیدی هر تصویر است و ساختار مبهمی دارد تا در صورت تغییر سایز عکس، برش داده شدن یا سایر ویرایش‌ها همچنان کار کند. البته همین مبهم بودن ممکن است به نتیجه‌گیری اشتباه ختم شود و تصویری را که حاوی سوءاستفاده از کودکان نیست، به‌عنوان CSAM تشخیص دهد.

اپل در تلاش بود رویکرد مشابهی را با توجه بیشتر به حریم خصوصی روی کار بیاورد. در روش اپل، فرایند اسکن ازطریق آیفون انجام می‌گرفت نه سرورهای ابری. بااین‌حال متخصصان امنیت سایبری، سازمان‌های حقوق بشر، دولت‌ها و حتی کارکنان اپل نگرانی‌های زیادی درباره‌ی سیستم موردبحث مطرح کردند.

اپل در ابتدا گفت که به‌منظور رسیدگی به نگرانی‌ها موقتاً انتشار سیستم جدید را متوقف می‌کند. بااین‌حال بعداً مشخص شد که این شرکت در سکوت خبری تمامی ارجاعات به سیستم CSAM را حذف کرده است. وقتی از اپل درباره‌ی دلیل این کار سؤال شد، سخنگوی این شرکت گفت قابلیت یادشده به تعویق افتاده است. هفته‌ی قبل اپل گفت دیگر هیچ برنامه‌ای برای فعال کردن سیستم CSAM ندارد.

 

منبع: زومیت

مطالب مرتبط