واکنش رئیس بخش حریم خصوصی اپل به انتقادها از ویژگی ایمنی کودکان
اپل اخیراً از چشماندازش برای ارائه ابزارهایی بهمنظور جلوگیری از آسیب و سوءاستفادههای جنسی از کودکان رونمایی کرده که تاکنون نظرات ضدونقیضی در رابطه با آن منتشر شده است. ویژگی اصلی جدید به اسکن تصاویر ذخیرهشده در آیکلاد برای تشخیص موارد پورنوگرافی کودکان مربوط میشود و همین امر، مورد انتقاد بسیاری از افراد قرار گرفته است؛ زیرا گفته میشود اسکن تصاویر ممکن است به سوءاستفادههای احتمالی از حریم خصوصی و دادن اطلاعات به دولتهای ناقض آزادی بیان و حقوق بشر منجر شود.
این امر سبب شده است که اریک نوینشواندر، سرپرست بخش حریم خصوصی اپل به شفافسازی در این رابطه بپردازد. وی در مصاحبهی اخیرش خاطرنشان کرده است که سیستم جدید برای جلوگیری از تهاجم و سوءاستفاده دولتها طراحی شده است. نوینشواندر در گوشهای از سخنانش در رابطه با انتقادات مبنی بر احتمال دخالت دولتها، میگوید احتمالاً این انتقادها مربوط به ایالت متحده آمریکا نمیشود؛ چراکه ابزارهای مذکور برای نخستین بار در این کشور ارائه خواهند شد؛ جایی که متمم چهاردهم قانون اساسی آن، مردم را از تفتیش و پیگرد قانونی بیدلیل دولت مصون میدارد. وی در ادامه میگوید:
... حتی فراتر از ایالت متحده، سیستم دارای قابلیتها و محدودیتهایی است که نمیتوان آنها را دور زد. بهعنوان مثال، لیست هشی که سیستم برای برچسبگذاری CSAM از آن استفاده میکند در سیستمعامل تعبیه شده است و بدون بهروزرسانی iOS نمیتوان آن را از طرف اپل بهروز کرد. اپل همچنین باید هرگونه بهروزرسانی را در پایگاه داده در مقیاس جهانی منتشر کند؛ بنابراین نمیتواند کاربران کشوری را با بهروزرسانیهای خاص هدف قرار بدهد.
این سیستم همچنین فقط مجموعههای CSAM شناختهشده را برچسبگذاری میکند و به همین دلیل، یک تصویر بهتنهایی باعث هشدار دادن نمیشود. افزون بر این، تصاویری که در پایگاه داده ارائهشده توسط مرکز ملی کودکان مفقود و استثمارشده قرار ندارند، برچسبگذاری نخواهند شد. با تمامی این تفاسیر، اپل همچنین یک فرایند بررسی دستی دارد. اگر یک حساب آیکلاد برای مجموعهای از مطالب CSAM غیر قانونی پرچمگذاری شود، یک تیم اپل نقض را بررسی میکند تا قبل از هشدار به مراجع ذیصلاح، از صحت آن مطمئن شود؛ بنابراین نفوذ فرضی شامل گذر از این موانع و البته مشروط به این است که اپل فرایند داخلی خود را برای ارجاع مطالب غیرقانونی، مانند تصاویر CSAM شناختهشده تغییر بدهد. ما معتقدیم هیچ مبنایی وجود ندارد که افراد بتوانند بر اساس آن، این کار در ایالات متحده انجام بدهند.
رئیس حریم خصوصی اپل استدلال میکند که پس از سپری شدن تمامی این موارد، این کاربر است که انتخاب میکند از آیکلاد استفاده کند یا خیر. در حقیقت سیستم فقط در صورتی کار میکند که کاربر آیکلاد فوتوز را فعال کرده باشد. نوینشواندر میگوید اگر کاربر سیستم را دوست ندارد، میتواند از آیکلاد فوتوز استفاده نکند و اگر این قابلیت فعال نباشد، هیچ بخشی از سیستم جدید کار نخواهد کرد. در واقع تشخیص CSAM یک هش عصبی است که با پایگاه داده هشهای CSAM شناختهشده مقایسه میشود که بخشی از تصویر سیستمعامل هستند و ظاهراً هیچ یک از قسمتهای اضافه نظیر ایجاد Voucher ایمنی یا بارگذاری Voucher در آیکلاد فوتوز را شامل نمیشود.
همانطور که در ابتدا گفته شد، ویژگی ایمنی کودکان اپل با انتقادهای متعددی مواجه شده است؛ اما اپل صراحتاً استفاده از این سیستم برای کاری غیر از تشخیص موارد CSAM را رد میکند. این شرکت تأکید میکند که از هرگونه تلاش دولت برای تغییر یا استفاده از سیستم برای چیزی غیر از CSAM جلوگیری خواهد کرد.