
Сегодня Apple опубликовала новый документ, в котором подробно описываются ее недавно анонсированные функции безопасности детей. Компания отвечает на опасения по поводу того, что новая возможность обнаружения CSAM может превратиться во «бэкдор», предоставляя подробности о пороге, который она использует, и многое другое.
Одним из наиболее заметных объявлений Apple сегодня является то, что система может быть проверена третьими сторонами. Apple объясняет, что опубликует статью в базе знаний с корневым хэшем зашифрованной базы данных хэшей CSAM. Apple также позволит пользователям проверять базу данных корневых хэшей на своих устройствах и сравнивать их с базой данных в статье базы знаний:
Apple опубликует статью базы знаний, содержащую корневой хэш зашифрованной базы данных CSAM-хэшей, включенной в каждую версию каждой операционной системы Apple, поддерживающей эту функцию. Кроме того, пользователи смогут проверять корневой хэш зашифрованной базы данных, присутствующей на их устройстве, и сравнивать его с ожидаемым корневым хэшем в статье базы знаний. Точность расчета корневого хэша, показанного пользователю в настройках, подлежит инспекции кода со стороны исследователей безопасности, как и все другие заявления об обеспечении безопасности устройств iOS.
Этот подход позволяет проводить технические аудиты третьими сторонами: аудитор может подтвердить, что для любого данного корневого хэша зашифрованной базы данных CSAM в статье базы знаний или на устройстве база данных была сгенерирована только из пересечения хэшей от участвующих организаций по безопасности детей, без каких-либо добавлений, удалений или изменений. Содействие аудиту не требует от организации по безопасности детей предоставления какой-либо конфиденциальной информации, такой как необработанные хэши или исходные изображения, используемые для генерации хэшей – они должны предоставить только неконфиденциальное подтверждение полной базы данных, которую они отправили Apple. Затем, в безопасной среде кампуса, Apple может предоставить аудитору техническое доказательство того, что пересечение и маскирование были выполнены корректно. Организация по безопасности детей, участвующая в процессе, может принять решение провести аудит.
Apple также рассмотрела возможность того, что организация может включить в базу данных что-то, кроме известного контента CSAM. Apple заявляет, что будет работать как минимум с двумя организациями по безопасности детей для генерации базы данных, включенной в iOS, которые не находятся под контролем одного и того же правительства:
Apple генерирует локальную базу данных перцептивных хэшей CSAM путем пересечения хэшей, предоставленных как минимум двумя организациями по безопасности детей, работающими в отдельных суверенных юрисдикциях – то есть, не находящимися под контролем одного и того же правительства. Любые перцептивные хэши, появляющиеся только в базе данных одной участвующей организации по безопасности детей, или только в базах данных нескольких агентств в одной суверенной юрисдикции, отбрасываются в ходе этого процесса и не включаются в зашифрованную базу данных CSAM, которую Apple включает в операционную систему. Этот механизм соответствует нашему требованию к корректности исходных изображений.
Apple также предлагает новые детали о процессе ручной проверки, который выполняется после достижения порогового значения:
Поскольку Apple не владеет изображениями CSAM, чьи перцептивные хэши составляют локальную базу данных, важно понимать, что рецензенты не просто проверяют, соответствует ли данное помеченное изображение записи в зашифрованной базе данных изображений CSAM Apple – то есть, записи в пересечении хэшей от как минимум двух организаций по безопасности детей, работающих в отдельных суверенных юрисдикциях. Вместо этого рецензенты подтверждают только одно: что для учетной записи, превысившей пороговое значение совпадений, изображения с положительным совпадением являются CSAM-материалами с визуальными производными. Это означает, что если бы не-CSAM изображения когда-либо были вставлены в локальную базу данных перцептивных хэшей CSAM – непреднамеренно или путем принуждения – это не имело бы никаких последствий, если бы Apple не была также проинформирована о том, какие конкретные не-CSAM изображения следует помечать (для учетных записей, превысивших пороговое значение совпадений), и если бы ее сотрудники не были затем вынуждены делать это.
Полный документ, опубликованный Apple сегодня, под названием «Обзор модели угроз безопасности функций безопасности детей Apple», вы можете найти здесь.