انتقاد واتساپ و برخی صاحب‌نظران از قابلیت‌های امنیت کودک اپل

{title limit=50}

اپل اخیرا از پیاده‌سازی ابزارهای جدیدی در سرویس‌هایش خبر داده است که می‌تواند با اسکن تصاویر ذخیره‌شده در آیکلاد موارد سوءاستفاده جنسی از کودکان (CSAM) را تشخیص دهد و آن‌ها را از گزند سوءاستفاده‌های احتمالی دور نگه دارد. بااین‌حال، ابزارهای مذکور نگرانی‌هایی برای کاربران و سازمان‌های حفظ حریم خصوصی ایجاد کرده و به‌نوعی قابلیت‌های مفید آن‌ها را به حاشیه کشانده شده است. حال عده‌ای از صاحب‌نظران دنیای تکنولوژی از این طرح اپل انتقاد کرده‌اند و مدعی هستند این شرکت سیاست نادرستی را در پیش گرفته است که می‌تواند تبعات حریم خصوصی ناخوشایندی را به‌دنبال داشته باشد. در این مقاله، قصد داریم به تعدادی از این انتقادها اشاره کنیم.

به‌گفته ویل کَسکارت، سرپرست واتساپ، این پیام‌رسان اقدامات جدید اپل برای ایمنی کودکان را به‌منظور جلوگیری از گسترش تصاویر کودک‌آزاری به‌کار نمی‌گیرد. وی با ارسال توییت ادعا می‌کند نرم‌افزاری که اپل ساخته است، می‌تواند تمام عکس‌های خصوصی گوشی هوشمند کاربران را اسکن کند. کَسکارت معتقد است اپل در تلاش برای بهبود واکنش خود به موارد سوءاستفاده جنسی از کودکان، راه اشتباهی در پیش گرفته است.

مهم‌ترین ویژگی امنیتی جدید اپل شامل گرفتن هش تصاویر بارگذاری‌شده در آی‌کلاد و مقایسه آن‌ها با پایگاه داده‌ای است که حاوی هش تصاویر CSAM ازپیش شناخته‌شده است. این فرایند به اپل اجازه می‌دهد داده‌های کاربر را رمزگذاری کند و تجزیه‌وتحلیل را روی دستگاه انجام دهد و درعین‌حال، تصاویر منتشر‌شده از کودک‌آزاری را سریعا به مراجع ذی‌صلاح گزارش دهد.

یکی دیگر از نکات استراتژی ایمنی کودکان اپل شامل هشدار اختیاری به والدین است. این هشدار زمانی به والدین ارسال می‌شود که فرزندشان با سنی کمتر از ۱۳ سال، عکس‌هایی با محتوای جنسی ارسال یا مشاهده کند. بااین‌حال، به‌نظر می‌رسد افراد نگران پیامد استفاده از این سیستم‌ها هستند. ویل کَسکارت دراین‌باره می‌گوید:

اطلاعاتی که اپل دیروز منتشر کرد، خواندم و نگران هستم. فکر می‌کنم این رویکرد اشتباه و عقب‌ماندگی برای حریم خصوصی مردم در سراسر جهان است. مردم پرسیده‌اند آیا این سیستم را برای واتساپ اتخاذ می‌کنیم یا خیر و ما پاسخمان کاملا منفی است.

کَسکارت رویکرد اپل را بسیار نگران‌کننده می‌نامد و می‌گوید این ابزارها به دولت‌های دارای ایده‌های متفاوت و نپذیرفتنی از نوع تصاویر اجازه می‌دهد درخواست کنند که اپل تصاویر غیر CSAM را به پایگاه‌های داده‌ای اضافه کند که تصاویر را با آن‌ها مقایسه می‌کند. وی خاطرنشان می‌کند سیستم واتساپ برای مبارزه با استثمار کودکان که تا حدی از گزارش‌های کاربران استفاده می‌کند، از رمزگذاری مانند اپل محافظت می‌کند و ظاهرا این شرکت تاکنون بیش از ۴۰۰ هزار مورد سوءاستفاده از کودکان را در سال ۲۰۲۰ به مرکز ملی کودکان مفقود و استثمارشده گزارش دهد.

فیسبوک، شرکت مادر واتساپ، نیز از اپل انتقاد و ویژگی‌های جدید را برای حریم خصوصی نگران‌کننده توصیف کرده است. این در حالی است که فیسبوک مدت‌ها است که به نقض حریم خصوصی کاربران در کانون توجه سازمان‌های نظارتی قرار دارد و اخیرا به‌همین‌دلیل با اپل در جدال بوده است. برای یادآوری، اپل جولای ۲۰۲۰ (تیر ۱۳۹۹) قابلیت جنجالی ATT را رونمایی و آن را در iOS 14.5 منتشر کرد؛ قابلیتی که در‌حقیقت دلیل اصلی جدال اپل با فیسبوک و سایر شرکت‌های تبلیغاتی محسوب می‌شود. ATT تغییری نسبتا ساده، اما مهم است که قبل از ردیابی کاربران در برنامه‌ها و وب‌سایت‌ها، باید ابتدا از آن‌ها اجازه گرفته شود.

اگرچه گروه‌های حقوق دیجیتالی و حریم خصوصی این ویژگی را ستوده‌اند، شرکت‌های وابسته به تبلیغات همچون فیسبوک به‌شدت با آن مخالف هستند. فیسبوک برای مقابله با قابلیت یادشده، کمپینی علیه آن به‌راه انداخت و کارزار تبلیغاتی خود را تمام‌صفحه و با ادعای آسیب‌دیدن مشاغل کوچک، در روزنامه‌های مهم ایالات متحده آمریکا آغاز کرد. درواقع، تنها فیسبوک و واتساپ نیستند که از ویژگی‌های ایمنی کودک اپل انتقاد کرده‌اند؛ بلکه بسیاری از اشخاص سرشناس این حوزه با این سایت اپل مخالف هستند.

متیو گرین، دانشیار دانشگاه جان هاپکینز، قبل از اعلام عمومی این ویژگی، آن را فاش کرده بود. وی معتقد است این ابزارها به اپل اجازه می‌دهد تصاویر موجود در آیفون کاربران را با عکس‌هایی که با یک هش ادراکی خاص مطابقت دارند، اسکن کند و در‌صورت ظاهرشدن موارد مشکوک، آن‌ها را به سرورهایش گزارش دهد. وی معتقد است اپل اگر این هش ادراکی خاص را به‌ خواست دولت‌ها یا افراد ظالم تغییر دهد، می‌تواند عواقب بدی را به‌دنبال داشته باشد.

در‌این‌میان، بنیاد مرزهای الکترونیکی (EFF) در بیانیه‌ای برنامه اپل را به‌باد انتقاد گرفت و ابزارهای جدید را در پشتی کاملا مستند و دقیق و با محدودیت نامید. بیانیه مطبوعاتی EFF بر چگونگی سوءاستفاده دولت از اقدامات ایمنی کودکان اپل و کاهش حریم خصوصی کاربران معطوف است و بیان می‌کند تنها چیزی که اپل برای گسترش درِ پشتی در دست ساختش نیاز خواهد داشت، توسعه پارامترهای یادگیری ماشین برای جست‌وجوی انواع دیگر محتوا یا تغییر در اولویت‌بندی برای اسکن سایر حساب‌ها است. این مشکل کوچکی نیست؛ بلکه سیستمی کاملا ساخته شده است که برای ایجاد تغییرات فقط انتظار فشار خارجی را می‌کشد.

بنیاد مرزهای الکترونیکی گزارش می‌دهد اعلان‌های تصاویر جنسی آی‌مسیج در صورتی به والدین ارسال نمی‌شود که کودک بین ۱۳ تا ۱۷ سال داشته باشد؛ اما ظاهرا این موضوع در اسناد پشتیبانی اپل ذکر نشده است. راس اندرسون، پروفسور مهندسی امنیت می‌گوید: «این ایده‌ای کاملا وحشتناک است؛ زیرا به نظارت گسترده‌ بر گوشی‌های هوشمند و لپ‌تاپ‌ها و سایر وسایل الکترونیکی منجر می‌شود.»

برایانا وو، سیاست‌مدار، این سیستم را بدترین ایده در تاریخ اپل توصیف می‌کند و معتقد است اعتبار اپل را در زمینه حفظ حریم خصوصی از بین می‌‌برد و راه را برای سوءاستفاده دولت‌ها باز می‌کند. تیم سوینی، مدیرعامل اپیک گیمز، نیز از اپل انتقاد کرد و گفت این شرکت داده‌های همه را به‌طور پیش‌فرض در آی‌کلاد جارو می‌کند. او تأکید می‌کند به‌زودی جزئیات بیشتری درباره سیستم ایمنی کودک اپل به‌اشتراک خواهد گذاشت.

با‌‌‌توجه‌‌‌به آنچه گفته شد، به‌نظر می‌رسد عده زیادی مخالف ارائه ویژگی‌های جدید ایمنی کودک هستند. بااین‌حال، این طرح موافقانی نیز دارد. برای مثال، اشتون کوچر، یکی از حامیان مقابله با قاچاق جنسی کودکان، کار اپل را گام بزرگ روبه‌جلویی برای تلاش به‌منظور از‌بین‌بردن CSAM توصیف می‌کند. کوچر می‌گوید: «به حریم خصوصی، ازجمله برای کودکانی اعتقاد دارم که با سوءاستفاده جنسی مواجه می‌شوند و فیلم‌ها و تصاویرشان بدون رضایت در فضای آنلاین پخش می‌شود. تلاش‌های اعلام‌شده اپل گامی بزرگ در مبارزه برای حذف CSAM از اینترنت است.»

جان کلارک، مدیرعامل و رئیس مرکز ملی کودکان مفقود و استثمارشده، یکی دیگر از موافقان سیاست‌های اپل است و در پشتیبانی از قابلیت‌های جدید کوپرتینویی‌ها می‌گویند:

[ما] در مرکز ملی کودکان مفقود و استثمارشده می‌دانیم که مبارزه با این جنایات دل‌خراش در‌صورتی امکان‌پذیر است که قاطعانه در تعهد خود به حمایت از کودکان پایبند باشیم. درواقع، فقط می‌توانیم این کار را انجام دهیم؛ زیرا در سوی دیگر ماجرا، شرکای فناوری نظیر اپل قرار دارند که می‌توانند با اقداماتشان در بهبود شرایط بسیار تأثیرگذار باشند. واقعیت این است که حریم خصوصی و حفاظت از کودکان می‌توانند هم‌زمان وجود داشته باشند. از [ویژگی‌های امنیتی] اپل استقبال می‌کنیم و مشتاقانه منتظر همکاری با‌هم هستیم تا این جهان را به مکانی امن برای کودکان تبدیل کنیم.

با‌‌‌توجه‌‌‌به انتقادها، شاید فکر کرده باشید اپل نخستین شرکتی است که از این ابزار برای ایمنی کودکان استفاده می‌کند؛ اما جالب است بدانید اسکن تصاویر منطبق با CSAM امری معمول در سایر شرکت‌های فناوری محسوب می‌شود. برای مثال، گوگل از سال ۲۰۰۸ صندوق ورودی کاربران جیمیل (Gmail) را با تصاویر شناخته‌شده CSAM اسکن می‌کند. برخی از این اسکن‌ها حتی به دستگیری افراد کودک‌آزار منجر شده است. همچنین، گوگل برای نشانه‌گذاری و حذف CSAM از نتایج جست‌وجو کار می‌کند.

مایکروسافت نیز در اصل سیستمی را توسعه داده است که سازمان کودکان مفقود و استثمارشده (NCMEC) از آن استفاده می‌کند. سیستم PhotoDNA ردموندیی‌ها برای اسکن هش‌های تصویر و تشخیص CSAM حتی در‌صورت تغییر در تصاویر استفاده می‌شود. فیسبوک از سال ۲۰۱۱ در حال استفاده از قابلیت مذکور است و توییتر نیز در سال ۲۰۱۳ آن را پذیرفت. افزون‌براین، دراپ‌باکس و تقریبا تمامی مخزن فایل‌های اینترنتی از آن استفاده می‌کنند. درواقع، اعتراض به معرفی سیستم مشابه نادیده‌گرفتن زمینه است؛ درحالی‌که از اپل درباره حریم خصوصی انتقاد و این نوع اسکن CSAM در بین شرکت‌های اینترنتی متداول محسوب می‌شود.

برای مطالعه تمام مقالات مرتبط با اپل به این صفحه مراجعه کنید.





ارسال نظر

عکس خوانده نمی‌شود
42