Apple откладывает внедрение системы обнаружения CSAM и функций безопасности детей

В прошлом месяце Apple объявила о нескольких новых функциях безопасности детей, которые вызвали противоречия, включая обнаружение CSAM в iCloud Photos. Теперь Apple заявила, что ей потребуется «дополнительное время» для доработки функций перед их запуском для общественности.

В заявлении для 9to5Mac Apple сообщила:

«В прошлом месяце мы объявили о планах по внедрению функций, предназначенных для защиты детей от хищников, которые используют средства связи для вербовки и эксплуатации детей, а также для ограничения распространения материалов с сексуальным насилием над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других, мы решили потратить дополнительное время в ближайшие месяцы для сбора информации и внесения улучшений перед выпуском этих чрезвычайно важных функций безопасности детей».

Новые функции безопасности детей от Apple должны были быть выпущены в рамках обновлений iOS 15, iPadOS 15 и macOS Monterey позднее в этом году. В настоящее время нет информации о том, когда компания планирует внедрить эти функции. В сегодняшнем заявлении Apple не предоставляет никаких подробностей о том, какие изменения компания может внести для улучшения системы.

Для справки, вот основы работы системы обнаружения CSAM в ее нынешнем виде:

Метод Apple для обнаружения известных CSAM разработан с учетом конфиденциальности пользователей. Вместо сканирования изображений в облаке, система выполняет сопоставление на устройстве с использованием базы данных известных хешей изображений CSAM, предоставленной NCMEC и другими организациями по безопасности детей. Apple далее преобразует эту базу данных в нечитаемый набор хешей, который безопасно хранится на устройствах пользователей.

Перед сохранением изображения в iCloud Photos выполняется процесс сопоставления на устройстве для этого изображения с известными хешами CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой частным пересечением множеств, которая определяет наличие совпадения без раскрытия результата. Устройство создает криптографический ваучер безопасности, который кодирует результат сопоставления вместе с дополнительными зашифрованными данными об изображении. Этот ваучер загружается в iCloud Photos вместе с изображением.

После объявления новая технология обнаружения CSAM получила немало недовольства и критики со стороны защитников конфиденциальности. Однако Apple неоднократно отстаивала эту функцию и заявляла, что ее реализация на самом деле будет более конфиденциальной, чем технологии, используемые другими компаниями, такими как Google и Facebook.

В ходе этого процесса также выяснилось, что Apple уже сканирует iCloud Mail на предмет CSAM, а расширение распространяется на iCloud Photos.

Другие функции безопасности детей, анонсированные Apple в прошлом месяце и также отложенные, включают функции безопасности связи в «Сообщениях» и обновленную информацию в Siri и поиске.

Что вы думаете о решении Apple отложить внедрение своих новых функций безопасности детей? Это правильное решение, или компании следовало придерживаться первоначального плана?