اپل

آیا آیفون اپل تبدیل به iSpy شده است؟

شرکت اپل می‌گوید که این سیستم خودکار است، تصاویر واقعی را اسکن نمی‌کند، از نوعی سیستم هش داده برای شناسایی موارد شناخته شده از مواد سوء استفاده جنسی از کودکان (CSAM) استفاده می‌کند و برای محافظت از حریم خصوصی به کار می‌رود. سه عنصر اصلی در سیستم وجود دارد که هنگام عرضه در اواخر امسال در iOS 15، iPadOS 15 و macOS Monterey  قرار داده می‌شوند.

اسکن تصاویر شما

سیستم اپل تمام تصاویر ذخیره شده در iCloud Photos را اسکن می‌کند تا ببیند آیا آنها با پایگاه‌داده CSAM که در مرکز ملی کودکان مفقود شده (NCMEC) نگهداری می‌شود، مطابقت دارد یا خیر. تصاویر با استفاده از پایگاه‌داده‌ای از هش‌های شناخته شده CSAM که توسط NCMEC و دیگر سازمان‌های حفاظت از کودکان ارائه شده است، روی دستگاه اسکن می‌شوند. اپل همچنین این پایگاه‌داده را به مجموعه‌ای از هش‌های ناخوانا تبدیل می‌کند که به طور ایمن در دستگاه‌های کاربران ذخیره می‌شود.

اپل

هنگامی که تصویری در iCloud Photos ذخیره می‌شود، فرایند تطبیق انجام می‌شود. در صورت عبور حساب از آستانه موارد متعددی ازمحتوای شناخته شده CSAM، به Apple هشدار داده می‌شود. در صورت هشدار، داده‌ها به صورت دستی بررسی می‌شوند، حساب غیرفعال می‌شود و NCMEC مطلع می‌شود.

با این حال، این سیستم کامل نیست. شرکت اپل می‌گوید کمتر از یک در یک تریلیون شانس نشان دادن اشتباه یک حساب وجود دارد. اپل بیش از یک میلیارد کاربر دارد، بنابراین این بدان معناست که بیش از 1/1000 احتمال دارد که هر سال شخصی به اشتباه شناسایی شود.

اسکن پیام‌های شما توسط اپل

سیستم اپل از یادگیری ماشینی روی دستگاه برای اسکن تصاویر در پیام‌های ارسال شده یا دریافت شده توسط افراد زیر سن قانونی برای موارد جنسی استفاده می‌کند و در صورت شناسایی چنین تصاویری به والدین هشدار می‌دهد. والدین می‌توانند سیستم را فعال یا غیرفعال کنند، و هرگونه محتوای دریافت شده توسط کودک محو می‌شود.

اپل

اگر کودکی تلاش کند محتوای جنسی واضح ارسال کند، به او هشدار داده می‌شود و به والدین نیز اطلاع داده می‌شود. اپل می‌گوید از این طریق به تصاویری که در دستگاه اسکن شده دسترسی ندارد.

کنترل آنچه جستجو می‌کنید

بخش سوم شامل به روز رسانی Siri و Search است. اپل می‌گوید که این اطلاعات در حال حاضر به والدین و فرزندان ارائه شده و در صورت مواجهه با شرایط ناامن به آنها کمک می‌کند. Siri و Search همچنین زمانی مداخله می‌کنند که افراد درخواست‌هایی را که به نظر می‌رسد مربوط به CSAM هستند، ایجاد کنند و توضیح دهند که دنبال کردن این موضوع مشکل ساز است.

اطلاعات فنی

فناوری اپل که NeuralHash نام دارد، تصاویر شناخته شده CSAM را تجزیه و تحلیل کرده و آنها را به یک عدد منحصر به فرد مخصوص هر تصویر تبدیل می‌کند. فقط یک تصویر دیگر که تقریباً یکسان به نظر می‌رسد می‌تواند همان عدد را تولید کند. به عنوان مثال، تصاویری که از نظر اندازه یا کیفیت کدگذاری متفاوت هستند، دارای ارزش NeuralHash یکسانی هستند.همانطور که تصاویر به iCloud Photos اضافه می‌شوند، با آن پایگاه‌داده مقایسه می‌شوند تا مطابقت بررسی شود.

در صورت یافتن تطابق، یک کوپن ایمنی رمزنگاری ایجاد می‌شود، که به مرورگر اپل اجازه می‌دهد تا در صورت رسیدن به آستانه این محتوا و اقدام  به رمزگشایی  دسترسی به تصویر مزاحم را بررسی کند. اپل همیشه ادعا می‌کند که سیستم عامل‌های پیام رسانی آن رمزگذاری شده است، اما اگر محتویات دستگاه شخص قبل از رمزگذاری اسکن شود، این یک ادعای بی اساس می‌شود. سرورهای ISP  و ارائه دهندگان ایمیل قبلاً برای چنین محتوا اسکن شده‌اند و اپل سیستمی ساخته است که دخالت انسان را به حداقل می‌رساند.

از حدود 26،500 فراری که در سال 2020 به NCMEC گزارش شده است، از هر 6 نفر یک نفر قربانی قاچاق جنسی کودکان بوده است. CyberTipline این سازمان (که تصور می‌کنم اپل در این مورد به آن متصل است) بیش از 21.7 میلیون گزارش مربوط به نوعی CSAM در سال 2020 دریافت کرد.

جان کلارک، رئیس و مدیرعامل NCMEC، می‌گوید: “با توجه به تعداد زیادی از افرادی که از محصولات اپل استفاده می‌کنند، این اقدامات ایمنی جدید برای کودکانی که به صورت آنلاین فریب می‌خورند و تصاویر وحشتناک آنها در CSAM در حال پخش است، قابلیت نجات بخشی دارد. در مرکز ملی کودکان مفقود شده و استثمار شده می‌دانیم که این جنایت تنها در صورتی قابل مبارزه است که ما در تعهد خود به حمایت از کودکان قاطع باشیم. “

برچسب‌ها:
  • سجاد بابایی
  • 1 شهریور 1400
  • 273 بازدید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بستن
مقایسه
جهت آگاهی از قیمت به روز محصول و موجودی قبل از ثبت سفاش با شماره 02191003065 داخلی 300 تماس حاصل فرمایید.