Apple SVP Крейг Федериги в новом интервью ответил на вопросы о политике безопасности детей в iOS 15 iCloud

В видеоинтервью для The Wall Street Journal вице-президент Apple Крейг Федериги обсудил реакцию на функции безопасности детей в iCloud, анонсированные на прошлой неделе.

Федериги признает, что одновременный анонс мер защиты в «Сообщениях» для детей и сканирования CSAM — двух похожих, но работающих по-разному функций — вызвал путаницу среди пользователей, и Apple могла бы лучше донести информацию о новой инициативе.

В беседе с Джоанной Стерн из The Journal Федериги подтвердил, что технология сканирования CSAM применяется только к фотографиям, предназначенным для загрузки в iCloud, и отключена, если «Фото iCloud» не используется.

Федериги говорит: «Мы хотели бы, чтобы это было представлено немного яснее, потому что мы очень положительно и твердо относимся к тому, что делаем, и видим, что это было широко не понято».

Функция CSAM использует криптографические хеши для обнаружения известного детского порнографического контента на устройстве пользователя. Однако телефон не блокирует вашу учетную запись немедленно. Чтобы снизить вероятность ложных срабатываний, Apple устанавливает минимальный порог количества обнаруженных случаев контента.

Когда этот порог достигается, учетная запись передается Apple для проверки человеком, а затем, в конечном итоге, в NCMEC (Национальный центр по поиску пропавших и эксплуатируемых детей). Ранее Apple не раскрывала этот порог явно. Однако Федериги, похоже, раскрыл его в этом интервью, сказав: «что-то вроде 30 известных порнографических изображений, соответствующих критериям».

Он также говорит, что даже для заблокированной учетной записи только те изображения, которые были обнаружены, затем просматриваются людьми — функция не предоставляет неограниченный доступ ко всей библиотеке фотографий пользователя в учетной записи.

На вопрос, предоставляет ли Apple правительству «черный ход» посредством внедрения этой функции, Федериги прямо отвергает это утверждение. Федериги говорит, что Apple разработала систему с несколькими уровнями аудита, чтобы систему нельзя было использовать злонамеренно. Одна и та же база хешей будет использоваться по всему миру.

Отдельно от функции сканирования и отчетности CSAM для загрузки фотографий в iCloud, Apple также выпустит новую функцию для приложения «Сообщения», которая предлагает защиту от отправки детям изображений с обнаженными телами. Алгоритм машинного обучения на устройстве будет искать наготу на фотографиях, отправляемых через «Сообщения», и закрашивать изображение, пока пользователь не подтвердит, что хочет его увидеть.

Для учетных записей Apple ID детей младше 13 лет родители могут включить опциональную настройку уведомлений, которая будет информировать родителей, когда их ребенок просматривает изображение с обнаженными телами. Федериги говорит, что эта функция предназначена для того, чтобы развеять опасения родителей, которые боятся, что их детей подвергают опасности и учат не говорить об отношениях с семьей.

Федериги говорит, что Apple сделала это сейчас, потому что «они разобрались» (то есть нашли способ предложить защиту от CSAM, сохраняя при этом конфиденциальность своей базы пользователей), и никто не оказывал на них давления действовать.

Новые функции безопасности детей будут развернуты позднее в этом году в рамках обновления iOS 15. Первоначально они будут включены только в Соединенных Штатах, а Apple сообщит о расширении на другие рынки позже.