«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного злоупотребления авторитарными правительствами и обращения передового технологического решения в инструмент слежки. И вот сейчас Apple ответила на эти опасения — компания опубликовала 6-страничный документ (.PDF) с ответами на самые разные вопросы по инициативе.

В Apple заверили, что не собираются расширять действие технологии проверки фото с помощью алгоритмов хэширования на другие области, помимо CSAM, или сотрудничать со спецслужбами или правительствами каких-либо стран.

«Давайте все проясним: применение этой технология ограничивается обнаружением CSAM [контента с сексуальным насилием над детьми], хранящихся в iCloud, и мы не будем выполнять запросы какого-либо правительства о ее расширении».

из заявления Apple

Сразу после анонса инициативы защитники конфиденциальности и эксперт по безопасности раскритиковали Apple, обвинив компанию в отказе от приватности. Доцент Института информационной безопасности Джонса Хопкинса и эксперт по кибербезопасности Мэтью Грин назвал технологию «действительно плохой идеей» и предостерег о возможных катастрофических последствиях, если она окажется в руках авторитарного правительства». В то же время аналитик в области информационной безопасности Алек Маффетт,  ранее работавший в Facebook и Deliveroo, заявил, что Apple отступает от приватности, чтобы сделать возможным 1984 год (отсылка к одноименному роману Джорджа Оруэлла, чьё название используется для обозначения любого тоталитарного общества).

Правозащитные организации выразили схожие опасения, что авторитарные режимы смогут использовать инструмент для поиска материалов с политическим инакомыслием, а противники ЛГБТ — для ограничения сексуального самовыражения.

Но Apple возражает — оснований для этого нет. В компании аргументируют, что разработали меры предосторожности, чтобы ее системы не использовались для обнаружения чего-либо, кроме изображений CSAM. Фотографии, загруженные в iCloud Photo Library, не будут сканировать, а только сопоставлять хэш-суммы (цифровые отпечатки) с базой данных известных изображений сексуального насилия над детьми. Для составления базы Apple объединилась с национальным центром по делам пропавших без вести и эксплуатируемых детей (NCMEC) и другими организациями, работающими в сфере безопасности детей. В Apple заверяют, что не собирается вносить какие-либо изменения в список хэшей изображений, а сам список — общий для всех iPhone и iPad, что исключает индивидуальный таргетинг.

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Apple также заявляет, что не намерена выполнять требования правительства и добавить в список изображения, не относящиеся к CSAM.

«Мы и раньше сталкивались с требованиями разработать и внедрить для правительства изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от выполнения этих запросов. Не будем это делать и впредь».

Из заявления Apple

Справедливости ради, ранее Apple неоднократно шла на уступки вопросах безопасности и конфиденциальности данных правительствам, чтобы продолжить работу в своих странах — например, компания продает iPhone без FaceTime в странах, где запрещены зашифрованные телефонные звонки, а в Китае удалила тысячи приложений из своего магазина App Store, а также переместила данные пользователей на серверы государственной телекоммуникационной компании.

При этом Apple никак не комментирует опасения касательно злоупотребления функцией проверки фото в «Сообщениях» на предмет материалов откровенно сексуального характера. Компания заявляет, что эта функция не передает никакой информации Apple или правоохранительным органам, но не сообщает о каких-либо мерах предосторожности, гарантирующих, что инструмент не будет направлен на фото любого другого характера, помимо интимного.

«Все, что понадобится, чтобы расширить узкий бэкдор, который создает Apple, — это расширение параметров машинного обучения для поиска дополнительных типов контента или настройка отдельных параметров конфигурации для сканирования не только детских, но и любых учетных записей»

из заявления Electronic Frontier Foundation (EFF)

В EFF также отмечают, что технологии машинного обучения часто неправильно классифицируют этот контент, и приводят попытки Tumblr отфильтровать контент сексуального характера в качестве яркого примера того, где все пошло наперекосяк.

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

Источник: ITC.ua



Самые актуальные новости - в Telegram-канале

Читайте также

Вверх