
В 2021 году Apple анонсировала ряд новых функций по обеспечению безопасности детей, включая обнаружение материалов, связанных с сексуальным насилием над детьми (CSAM), в iCloud Photos. Однако этот шаг подвергся широкой критике из-за опасений по поводу конфиденциальности. После бессрочной приостановки Apple теперь подтвердила, что отказалась от планов внедрения системы обнаружения CSAM.
Apple больше не будет сканировать iCloud Photos на наличие CSAM
В тот же день, когда компания анонсировала Advanced Data Protection с сквозным шифрованием для всех данных iCloud, она также прекратила разработку никогда не выпущенного сканера CSAM. Эта новость была подтверждена вице-президентом Apple по разработке программного обеспечения Крейгом Федериги в интервью с Джоанной Стерн из WSJ.
Когда было объявлено о сканировании CSAM, Apple заявила, что iCloud Photos сможет обнаруживать неуместные материалы в фотографиях пользователей на основе базы данных хэшей изображений CSAM. Таким образом, компания сможет обнаруживать такие фотографии с помощью обработки на устройстве, не просматривая фотографии пользователей.
Перед сохранением изображения в iCloud Photos выполняется процесс сопоставления на устройстве для этого изображения с нечитаемым набором известных хэшей CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой частным пересечением множеств, которая определяет, есть ли совпадение, не раскрывая результат. Частное пересечение множеств (PSI) позволяет Apple узнать, соответствует ли хэш изображения известным хэшам изображений CSAM, не узнавая ничего о несовпадающих хэшах изображений. PSI также предотвращает возможность того, что пользователь узнает, было ли совпадение.
Тем не менее, сканирование CSAM вызвало много критики со стороны пользователей. В прошлом году в заявлении для 9to5Mac компания заявила, что решила «уделить дополнительное время в ближайшие месяцы для сбора отзывов и внесения улучшений перед выпуском этих критически важных функций безопасности детей».
Оказывается, Apple теперь решила, что будет лучше отказаться от сканирования CSAM в iCloud Photos. Стоит отметить, однако, что другие функции безопасности детей, такие как ограничения iMessage, по-прежнему доступны в iOS.
Что вы думаете об этом решении? Сообщите нам в комментариях ниже.