استرالیا اپل و مایکروسافت را به «نادیدهگرفتن سوءاستفاده جنسی از کودکان» متهم کرد
اپل سال گذشته قصد داشت سیستم جدیدی برای اسکن کردن تصاویر آیکلاد روی کار بیاورد تا محتوای CSAM (سوءاستفادهی جنسی از کودکان) را شناسایی کند، اما در نهایت اعلام کرد که برنامههایش را لغو کرده است. با وجود لغو رسمی، این طرح همچنان حاشیهسازی میکند.
یک نهاد رگولاتوری در استرالیا، اپل را به نادیده گرفتن سوءاستفادهی جنسی از کودکان متهم کرده است. این نهاد میگوید دو شرکت اپل و مایکروسافت نتوانستهاند اقدامات کافی برای «حفاظت از آسیبپذیرترین گروه دربرابر سودجوترین گروه» انجام دهند.
براساس نوشتهی رویترز، دفتر کمیسر امنیت الکترونیک در استرالیا میگوید: «پس از ارسال درخواستهای قانونی به شماری از بزرگترین شرکتهای اینترنتی دنیا، پاسخها نشان داد اپل و مایکروسافت بهطور فعالانه سرویسهای ذخیرهسازی آیکلاد و واندرایو را برای یافتن محتوای سوءاستفادهی جنسی از کودکان اسکن نمیکنند.» استرالیا در ادامه اضافه میکند که عقبنشینی اپل از فعال کردن سیستم CSAM «قدم روبهعقب بزرگی» بود.
به گزارش 9to5Mac، بهطور معمول سرویسهای ابری مثل Google Photos تصاویر آپلودشده را اسکن و آنها را با دیتابیسی بهنام تصاویر CSAM مقایسه میکنند تا تصاویری را که شامل سوءاستفادهی جنسی از کودکان هستند شناسایی کنند. این دیتابیس توسط NCMEC (مرکز ملی کودکان مفقود و مورد سوءاستفاده قرارگرفته) و سازمانهای مشابه در سراسر دنیا ارائه میشود.
در فرایند تطبیق تصاویر از چیزی تحت عنوان هَش (یا اثرانگشت دیجیتالی) استفاده میشود. هش مبتنیبر بخشهای کلیدی هر تصویر است و ساختار مبهمی دارد تا در صورت تغییر سایز عکس، برش داده شدن یا سایر ویرایشها همچنان کار کند. البته همین مبهم بودن ممکن است به نتیجهگیری اشتباه ختم شود و تصویری را که حاوی سوءاستفاده از کودکان نیست، بهعنوان CSAM تشخیص دهد.
- اپل توسعه سیستم تشخیص سوءاستفاده جنسی از کودکان را متوقف کرد
- اپل از مجموعه قابلیتهای امنیتی جلوگیری از آسیب کودکان رونمایی کرد
اپل در تلاش بود رویکرد مشابهی را با توجه بیشتر به حریم خصوصی روی کار بیاورد. در روش اپل، فرایند اسکن ازطریق آیفون انجام میگرفت نه سرورهای ابری. بااینحال متخصصان امنیت سایبری، سازمانهای حقوق بشر، دولتها و حتی کارکنان اپل نگرانیهای زیادی دربارهی سیستم موردبحث مطرح کردند.
اپل در ابتدا گفت که بهمنظور رسیدگی به نگرانیها موقتاً انتشار سیستم جدید را متوقف میکند. بااینحال بعداً مشخص شد که این شرکت در سکوت خبری تمامی ارجاعات به سیستم CSAM را حذف کرده است. وقتی از اپل دربارهی دلیل این کار سؤال شد، سخنگوی این شرکت گفت قابلیت یادشده به تعویق افتاده است. هفتهی قبل اپل گفت دیگر هیچ برنامهای برای فعال کردن سیستم CSAM ندارد.