5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о внедрении в iOS, iPadOS, macOS и watchOS специальной технологии выявления изображений с сексуальным насилием над детьми.
Прежде чем переходить к сути новости следует сделать небольшое отступление. С 2020 года Apple начала «сканировать» фото, загружаемые пользователями в облачное хранилище iCloud, на предмет жестокого обращения с детьми, в том числе сексуальной эксплуатации несовершеннолетних. Сама технология не является сканированием в привычном понимании — она не рассматривает сами снимки, а сопоставляет их цифровые хеш-сигнатуры с базой данных изображений сексуального насилия над детьми и способна выявлять характерные цифровые отпечатки. Иными словами, просматривать фото пользователей никто не будет. Тогда Apple не конкретизировала, что это за технология, но по описанию она напоминала Microsoft PhotoDNA, которую многие компании, включая Facebook, Twitter и Google, давным-давно используют для борьбы с детской порнографией.
В рамках сегодняшнего анонса Apple анонсировала несколько новых инициатив по борьбе с распространением контента с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM) детской порнографией в трех направлениях.
Во-первых, алгоритмы будут локально «сканировать» фотографии еще до загрузки в iCloud и без отправки данных на серверы Apple. В отчете Financial Times система проходила под названием neuralMatch (в официально пресс-релизе это название не фигурирует) и сообщалось, что лежащая в ее основе нейросеть была обучена с использованием 200 000 изображениях, предоставленных Национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC) и другими организациями, занятые в сфере безопасности детей.
«Функция работает на криптографического протокола Private Set Intersection (PSI), который позволяет выявить наличие совпадения без раскрытия результата.
Устройство создает безопасный криптографический ваучер, в котором будут закодированы результаты сравнения вместе с дополнительными данными о фотографии. Этот ваучер загружается в Фото iCloud вместе с изображением».
из заявления Apple
Протокол PSI дополняет технология «разделения секрета» — система гарантирует, что Apple не сможет интерпретировать эти данные, пока учетная запись не пересечет пороговое значение по количеству изображений CSAM. В Apple утверждают, что ошибка возможна в одном случае из триллиона.
В случае фиксации нарушений Apple будет вручную обрабатывать каждый отчет, чтобы подтвердить совпадение. Далее компания отключит учетную запись пользователя и уведомит о происшествии NCMEC и правоохранительные органы. Пользователь сможет обжаловать решение.
Во-вторых, с выходом iOS и iPadOS 15, watchOS 8, macOS Monterey в «Сообщениях» появятся новые инструменты для предупреждения детей и их родителей о получении или отправке фотографий откровенно сексуального характера.
Проверка будет проходить по той же схеме — локально с сопоставлением хэш-сумм. В случае получения откровенного контента «Сообщения» автоматически размоют снимок и отобразят предупреждение об опасности подобного контента. Кроме того, система не позволит делиться интимными фото и будет уведомлять родителей о подобных случаях.
Наконец, третье новшество касается Siri и «Поиска» — они начнут выводить соответствующие подсказки и будут предлагать правильные ресурсы, если юные пользователи случайно наткнуться на какую-либо информацию, касающуюся CSAM. При необходимости у голосового ассистента можно будет узнать адреса соответствующих ресурсов, чтобы сообщить о CSAM.
Источник: ITC.ua