Apple анонсирует новые меры защиты детей: функции iMessage, сканирование iCloud Photos и многое другое

Apple сегодня анонсирует три новых инициативы по обеспечению новой защиты детей на iPhone, iPad и Mac. Они включают новые функции безопасности связи в «Сообщениях», улучшенное обнаружение материалов, связанных с сексуальным насилием над детьми (CSAM), в iCloud, а также обновленную справочную информацию для Siri и Поиска.

Apple подчеркивает, что ее новая программа амбициозна, но «защита детей — это важная ответственность». Исходя из этого, Apple заявляет, что ее усилия «будут развиваться и расширяться со временем».

Сообщения

Первое сегодняшнее объявление — это новая функция безопасности связи в приложении «Сообщения». Apple объясняет, что когда ребенок, входящий в семейную группу iCloud, получает или пытается отправить откровенные фотографии сексуального характера, ребенок увидит предупреждающее сообщение.

Apple объясняет, что когда ребенок получает изображение откровенно сексуального характера, изображение будет размыто, а в приложении «Сообщения» появится предупреждение о том, что изображение «может быть чувствительным». Если ребенок нажмет «Посмотреть фото», он увидит всплывающее сообщение с объяснением, почему изображение считается чувствительным.

Во всплывающем окне говорится, что если ребенок решит просмотреть изображение, родитель из семейной группы iCloud получит уведомление «чтобы убедиться, что с вами все в порядке». Во всплывающем окне также будет ссылка для получения дополнительной помощи.

Кроме того, если ребенок попытается отправить изображение откровенно сексуального характера, он увидит похожее предупреждение. Apple заявляет, что ребенок будет предупрежден до отправки фотографии, а родители могут получить сообщение, если ребенок решит ее отправить (для детей младше 13 лет).

Apple далее объясняет, что «Сообщения» используют машинное обучение на устройстве для анализа вложений изображений и определения того, является ли фотография откровенно сексуальной. iMessage остается сквозным шифрованием, и Apple не имеет доступа к каким-либо сообщениям. Функция также будет включаться по желанию.

Apple заявляет, что эта функция появится «позднее в этом году для учетных записей, настроенных как семейные в iCloud», в обновлениях iOS 15, iPadOS 15 и macOS Monterey. Изначально функция будет доступна в США.

Обнаружение CSAM

Site default logo image

Во-вторых, и, пожалуй, самое главное, Apple анонсирует новые шаги по борьбе с распространением материалов, связанных с сексуальным насилием над детьми (CSAM). Apple объясняет, что CSAM относится к контенту, изображающему сексуально откровенные действия с участием ребенка.

Эта функция, частично просочившаяся ранее сегодня, позволит Apple обнаруживать известные изображения CSAM при их хранении в iCloud Photos. Затем Apple сможет сообщать о случаях CSAM в Национальный центр по делам пропавших и эксплуатируемых детей — организацию, которая действует как комплексное агентство по отчетности о CSAM и тесно сотрудничает с правоохранительными органами.

Apple неоднократно подчеркивает, что ее метод обнаружения CSAM разработан с учетом конфиденциальности пользователей. Проще говоря, Apple анализирует изображения на вашем устройстве, чтобы увидеть, есть ли совпадения с базой данных известных изображений CSAM, предоставленной Национальным центром по делам пропавших и эксплуатируемых детей. Все сопоставление выполняется на устройстве, при этом Apple преобразует базу данных Национального центра по делам пропавших и эксплуатируемых детей в «нечитаемый набор хэшей, который безопасно хранится на устройствах пользователей».

Apple объясняет:

Перед тем как изображение будет сохранено в iCloud Photos, выполняется процесс сопоставления на устройстве для этого изображения с нечитаемым набором известных хэшей CSAM. Этот процесс сопоставления основан на криптографической технологии, называемой частным пересечением множеств, которая определяет, есть ли совпадение, не раскрывая результата. Частное пересечение множеств (PSI) позволяет Apple узнать, совпадает ли хэш изображения с известными хэшами изображений CSAM, ничего не узнавая о хэшах изображений, которые не совпадают. PSI также не позволяет пользователю узнать, было ли совпадение.

Если происходит совпадение на устройстве, устройство создает криптографический ваучер безопасности, который кодирует результат совпадения. Затем используется технология разделения секретов по порогу. Это гарантирует, что содержимое ваучеров безопасности не может быть интерпретировано Apple, если учетная запись iCloud Photos не достигнет порогового значения известного контента CSAM.

«Например, если секрет разделен на 1000 долей, а порог составляет 10, то секрет может быть восстановлен из любых 10 из 1000 долей. Однако, если доступно только девять долей, то о секрете ничего не раскрывается», — говорит Apple.

Apple не раскрывает конкретный порог, который она будет использовать — то есть количество совпадений CSAM, необходимых для интерпретации содержимого ваучеров безопасности. Однако, как только этот порог будет достигнут, Apple вручную просмотрит отчет, чтобы подтвердить совпадение, затем отключит учетную запись пользователя и отправит отчет Национальному центру по делам пропавших и эксплуатируемых детей.

Технология пороговых значений важна, поскольку она означает, что учетные записи не помечаются ошибочно. Ручная проверка также добавляет еще один шаг подтверждения для предотвращения ошибок, и пользователи смогут подать апелляцию для восстановления своей учетной записи. Apple заявляет, что система имеет низкий процент ошибок — менее 1 на 1 триллион учетных записей в год.

Несмотря на то, что все делается на устройстве, Apple анализирует только фотографии, хранящиеся в iCloud Photos. Изображения, хранящиеся полностью локально, не участвуют в этом процессе. Apple заявляет, что система на устройстве важна и более конфиденциальна, чем облачное сканирование, поскольку она сообщает только о пользователях, имеющих изображения CSAM, в отличие от постоянного сканирования фотографий всех пользователей в облаке.

Реализация этой функции Apple очень техническая, и более подробную информацию можно найти по ссылкам ниже.

Apple заявляет, что функция сначала появится в США, но компания надеется в конечном итоге расширить ее и на другие страны.

Site default logo image

Наконец, Apple обновляет Siri и Поиск:

Apple также расширяет руководство в Siri и Поиске, предоставляя дополнительные ресурсы для помощи детям и родителям в обеспечении безопасности в Интернете и получении помощи в опасных ситуациях. Например, пользователям, которые спрашивают Siri, как сообщить о CSAM или эксплуатации детей, будут предложены ресурсы о том, куда и как подать отчет.

Siri и Поиск также обновляются, чтобы вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM. Эти вмешательства объяснят пользователям, что интерес к этой теме вреден и проблематичен, и предоставят ресурсы от партнеров для получения помощи по этому вопросу.

Обновления Siri и Поиска выйдут позднее в этом году в рамках обновлений iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.

Отзывы

Джон Кларк, президент и генеральный директор Национального центра по делам пропавших и эксплуатируемых детей: «Расширенная защита Apple для детей меняет правила игры. Учитывая, сколько людей используют продукты Apple, эти новые меры безопасности имеют потенциал спасать жизни детей, которых заманивают в Интернет, и чьи ужасные изображения распространяются в материалах, связанных с сексуальным насилием над детьми. В Национальном центре по делам пропавших и эксплуатируемых детей мы знаем, что с этой преступностью можно бороться только путем неизменной приверженности защите детей. Мы можем делать это только благодаря тому, что технологические партнеры, такие как Apple, проявляют инициативу и демонстрируют свою приверженность. Реальность такова, что конфиденциальность и защита детей могут сосуществовать. Мы аплодируем Apple и с нетерпением ждем совместной работы, чтобы сделать этот мир более безопасным для детей».

Джули Кордуа, генеральный директор Thorn: «В Thorn мы верим в право на конфиденциальность в Интернете, в том числе для детей, чье сексуальное насилие записывается и распространяется в Интернете без согласия. Приверженность Apple развертыванию технологических решений, которые уравновешивают потребность в конфиденциальности и цифровую безопасность детей, приближает нас к правосудию для пострадавших, чьи самые травмирующие моменты распространяются в Интернете; приближает нас к миру, где каждая цифровая платформа с кнопкой загрузки стремится к проактивному обнаружению CSAM во всех средах; и приближает нас к миру, где каждый ребенок имеет возможность просто быть ребенком».

Стивен Балкам, основатель и генеральный директор Института онлайн-безопасности для семьи: «Мы поддерживаем постоянное развитие подхода Apple к онлайн-безопасности детей. Учитывая трудности, с которыми сталкиваются родители при защите своих детей в Интернете, крайне важно, чтобы технологические компании постоянно совершенствовали свои инструменты безопасности, чтобы реагировать на новые риски и фактический вред».

Бывший генеральный прокурор Эрик Холдер: «Исторический рост распространения материалов, связанных с сексуальным насилием над детьми, в Интернете — это проблема, которую должны решать технологические инновации. Новые усилия Apple по обнаружению CSAM представляют собой важную веху, демонстрирующую, что безопасность детей не обязательно достигается за счет конфиденциальности, и являются еще одним примером давней приверженности Apple делать мир лучше, последовательно защищая конфиденциальность потребителей».

Бывший заместитель генерального прокурора Джордж Тервиллигер: «Анонсы Apple представляют собой очень значительный и долгожданный шаг как в расширении прав и возможностей родителей, так и в оказании помощи правоохранительным органам в их усилиях по предотвращению вреда детям со стороны распространителей CSAM. Благодаря расширенным усилиям Apple по обнаружению и отчетности CSAM, правоохранительные органы смогут лучше выявлять и останавливать тех членов нашего общества, которые представляют наибольшую угрозу для наших детей».

Бенни Пинкас, профессор кафедры компьютерных наук Бар-Иланского университета: «Система PSI от Apple обеспечивает превосходный баланс между конфиденциальностью и полезностью, и будет чрезвычайно полезна при идентификации контента CSAM, сохраняя при этом высокий уровень конфиденциальности пользователей и сводя к минимуму ложные срабатывания».

Михир Белларе, профессор кафедры компьютерных наук и инженерии Калифорнийского университета в Сан-Диего: «Принятие мер по ограничению CSAM — похвальный шаг. Но его реализация требует некоторой осторожности. При наивном подходе он требует сканирования фотографий всех пользователей iCloud. Но наши фотографии личные, они записывают события, моменты и людей в нашей жизни. Пользователи ожидают и желают, чтобы они оставались конфиденциальными от Apple. В свою очередь, база данных фотографий CSAM не должна быть общедоступной или известной пользователю. Apple нашла способ обнаруживать и сообщать о нарушителях CSAM, соблюдая эти ограничения конфиденциальности».

Дэвид Форсайт, заведующий кафедрой компьютерных наук Инженерного колледжа Иллинойсского университета в Урбана-Шампейн: «Подход Apple лучше сохраняет конфиденциальность, чем любой другой, о котором я знаю […] По моему мнению, эта система, вероятно, значительно увеличит вероятность обнаружения людей, которые владеют [CSAM] или торгуют им; это должно помочь защитить детей. Безобидные пользователи должны испытывать минимальные или нулевые потери конфиденциальности, поскольку визуальные производные раскрываются только в том случае, если есть достаточно совпадений с изображениями CSAM, и только для тех изображений, которые соответствуют известным изображениям CSAM. Точность системы сопоставления в сочетании с пороговым значением делает маловероятным раскрытие фотографий, которые не являются известными изображениями CSAM».