Компания Apple отложила запуск функции проверки фотографий в iCloud на предмет детской порнографии после критики пользователей.
Об этом сообщает CNBC.
Изучив отзывы клиентов, правозащитников, исследователей и пользователей, Apple решила пока не запускать эту функцию.
«В прошлом месяце мы объявили о планах создать функции, которые помогли бы защитить детей от людей, которые используют средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести изменения, прежде чем выпускать эти критически важные для безопасности детей функции», — говорится в заявлении компании.
6 августа Apple объявила, что расширит функции для защиты детей на своих устройствах. Компания внедрила три новых функции — в «Сообщениях», фотографиях в iCloud и в Siri.
Планировалось, что с осени 2021 года системы будут размывать откровенные снимки на устройствах детей до 12 лет в iMessage, проверять фотографии в облачном хранилище iCloud на предмет детского порно и давать советы по безопасности детям и родителям в Siri. После анонса компанию раскритиковали эксперты по кибербезопасности, журналисты и пользователи. Они обвинили Apple в нарушении приватности.