برنامههای اپل توسط طیف گستردهای از افراد و سازمانها ازجمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاهها و حتی برخی از کارمندان اپل موردانتقاد قرار گرفت.
بر اساس بیانیهای که با WIRED بهاشتراک گذاشته شده است، اپل امروز اعلام کرد که از برنامه بحثبرانگیز خود برای شناسایی مواد شناختهشده سوءاستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره میشود، صرفنظر کرده است.
توقف کامل طرح CSAM اپل
اپل قصد داشت حسابهای iCloud را با تصاویر CSAM به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمانهای مجری قانون ایالاتمتحده کار میکند، گزارش کند.
برخی از منتقدان استدلال کردند که این ویژگی یک “درپشتی” در دستگاهها ایجاد میکند که دولتها یا سازمانهای مجری قانون میتوانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، ازجمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب آن را نشانهگذاری کند.
بیانیه کامل اپل به شرح زیر است:
اپل در ابتدا اعلام کرد که تشخیص CSAM در بهروزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا میشود، اما این شرکت درنهایت این ویژگی را براساس «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» بهتعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامههای شناسایی CSAM را به کلی کنار گذاشته است.