Apple подтверждает, что обнаружение CSAM применяется только к фотографиям, защищает свой метод от других решений

Apple продолжает прояснять информацию о функции обнаружения CSAM (материалов, связанных с сексуальным насилием над детьми), о которой она объявила на прошлой неделе. В дополнение к подробному документу с часто задаваемыми вопросами, опубликованному ранее сегодня, Apple также подтвердила, что обнаружение CSAM применяется только к фотографиям, хранящимся в iCloud Photos, но не к видео.

Компания также продолжает защищать свою реализацию обнаружения CSAM как более дружественную к конфиденциальности и сохраняющую ее, чем решения других компаний.

Apple подтвердила сегодня, что на момент запуска обнаружение CSAM будет применяться только к фотографиям, хранящимся в iCloud Photos, а не к видео. Учитывая широкое распространение видео среди материалов CSAM, компания признала, что в будущем она может сделать больше и расширить и развить свои планы со временем.

Это имеет смысл, если взглянуть на то, как работает сканирование Apple для обнаружения CSAM. Все сопоставления выполняются на устройстве, при этом Apple преобразует базу данных фотографий Национального центра по борьбе с пропавшими и эксплуатируемыми детьми в «нечитаемый набор хешей, который безопасно хранится на устройствах пользователей». Затем база данных на устройстве проверяется на соответствие фотографиям, и при совпадении на устройстве создается криптографический ваучер безопасности, который кодирует результат совпадения.

Apple также подчеркивает, что если пользователь не использует iCloud Photos, то ни один этап процесса обнаружения CSAM не выполняется. Это означает, что если пользователь хочет отказаться от процесса обнаружения CSAM, он может отключить iCloud Photos.

Наконец, Apple также вновь заявляет, почему, по ее мнению, ее реализация обнаружения CSAM на устройстве намного лучше серверных реализаций, используемых другими компаниями. Эти реализации, как объясняет Apple, требуют, чтобы компания сканировала каждую фотографию, хранящуюся пользователем на своем сервере, причем большинство из них не являются CSAM.

Реализация Apple для обнаружения CSAM не требует, чтобы серверы Apple сканировали каждую фотографию. Перенося процесс на устройство, метод Apple более безопасен и разработан для проверки только хешей изображений по базе данных NCMEC известных изображений CSAM, в отличие от серверного сканирования всех изображений.