Компанія Apple відклала запуск функції перевірки фотографій в iCloud на дитячу порнографію після критики користувачів.
Про це повідомляє CNBC.
Вивчивши відгуки клієнтів, правозахисників, дослідників та інших користувачів, Apple вирішила поки не запускати цю функцію.
«Минулого місяця ми оголосили про плани створити функції, які допомогли б захистити дітей від людей, які використовують засоби комунікації для їх вербування та експлуатації, а також обмежити поширення матеріалів про сексуальне насильство над дітьми. Ґрунтуючись на відгуках клієнтів, правозахисних груп, дослідників та інших осіб, ми вирішили найближчими місяцями виділити додатковий час, щоб зібрати інформацію та внести зміни, перш ніж випускати ці критично важливі для безпеки дітей функції», — йдеться в заяві компанії.
6 серпня Apple оголосила, що розширить функції для захисту дітей на своїх пристроях. Компанія впровадила три нові функції — у «Повідомленнях», фотографіях в iCloud і в Siri.
З осені 2021 року системи мали почати розмивати відверті знімки на пристроях дітей до 12 років в iMessage, перевіряти фотографії у хмарному сховищі iCloud на дитяче порно і давати поради з безпеки дітям і батькам у Siri. Після анонсу компанію розкритикували експерти з кібербезпеки, журналісти та користувачі. Вони звинуватили Apple у порушенні приватності.