Компания Apple ответила на основные вопросы про мониторинг устройств на предмет детского порно

Автор:
Anhelina Sheremet
Дата:

Компания Apple ответила на часто задаваемые вопросы по мониторингу устройств для борьбы с детской порнографией в США. Новая система получила название neuralMatch, она будет подавать сигнал оператору в случае подозрения о наличии «незаконных изображений».

Ответы на все вопросы опубликовали в документе на шесть страниц.

В чем разница между проверкой фото в iCloud Photos и в «Сообщениях»?

Эти две функции не совпадают и используют различные технологии. Защита детей в iMessage работает только на семейных аккаунтах с детьми 12 лет или младше. Данные не передают властям, а функцию нужно активировать вручную.

Когда учетная запись ребенка отправляет или получает изображение откровенно сексуального характера, фотография будет размытой, а ребенка уверят, что это нормально, если он не хочет смотреть или отправлять фотографию. Маленьких детей система сначала предупредит, что если они согласятся смотреть фото без размытия, то родителямотправят оповещение.

Для детей 13—17 лет система будет размывать откровенные снимки и предупреждать об опасности содержания, но не станет оповещать родителей.

Вторая функция (выявление детского порно в фотографиях iCloud) не будет давать Apple информацию обо всех фотографиях, кроме тех, в отношении которых возникли подозрения. Эта функция влияет только на пользователей, которые решили использоваться iCloud Photos для хранения своих фотографий. Если пользователь выключил загрузку фото на iCloud — функция работать не будет. Функция также не проверяет частную библиотеку фотографий на устройстве.

В отношении кого эта функция будет работать? Только для учетных записей, созданных как семейные в iCloud. Учетные записи родителей или опекунов должны включить эту функцию.

Apple сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображений с детской порнографией», и только о снимках, которые совпали с ними. Базу данных для сравнения формирует не сама Apple, а правозащитные организации — компания ей только пользуется. В базе находятся только известные властям снимки с детской порнографией.

В Apple утверждают, что система создана только для оповещения о фотографиях, которые находятся в базе данных уже известного власти детского порно. В большинстве стран, включая США, подобный контент запрещен, а в Штатах Apple обязана сообщать об таких случаях властям.

Кроме того, операционная система на устройствах Apple будет реагировать, если пользователь попытается найти в интернете материалы с детской порнографией. В случае подтверждения таких действий данные передадут правоохранителям.

Apple заявила, что откажется от любых просьб правительств адаптировать систему для других целей. Технологию создавали для конкретной цели — отслеживать случаи жестокого обращения с детьми.

  • Компания анонсировала эту функцию в начале августа. Некоторые ее раскритиковали за то, что таким образом Apple получит доступ к устройствам и информации на них.