Apple отреагировала на заблуждения и опасения, связанные с анонсами сканирования фотографий, опубликовав FAQ по CSAM – ответы на часто задаваемые вопросы о функциях.
Хотя организации по защите детей приветствовали планы Apple по обнаружению материалов, связанных с сексуальным насилием над детьми (CSAM), и защите детей от хищников, возникла смесь осведомленной и неосведомленной критики…
Контекст
В средствах массовой информации возникла путаница, когда Apple одновременно объявила о трех отдельных мерах, причем многие нетехнические люди путали первые две:
- Предупреждения об откровенных фотографиях в iMessage для детей в семейных группах iCloud
- Обнаружение известных CSAM-фотографий путем сканирования цифровых отпечатков
- Ответы на запросы Siri и поисковые запросы материалов CSAM с предупреждением и ссылками для получения помощи
Также было недостаточно понимания методов, используемых Apple. В случае iMessage используется встроенный ИИ для обнаружения изображений, похожих на обнаженные тела; в случае CSAM сравниваются цифровые отпечатки с отпечатками, сгенерированными из сохраненных фотографий пользователя.
Ни в одном из случаев никто из Apple не получает доступа к фотографиям, за исключением тех случаев, когда кто-то, имеющий несколько CSAM-фотографий, будет вручную проверять копии с низким разрешением, чтобы убедиться, что это действительно совпадения, прежде чем будет проинформирована правоохранительные органы.
Также возникла путаница между рисками конфиденциальности и рисками злоупотребления существующими функциями (которые нулевые или чрезвычайно низкие) и потенциальным злоупотреблением со стороны авторитарных правительств в будущем. Эксперты по кибербезопасности предупреждали о последнем, а не о первом.
Apple уже пыталась решить проблемы, связанные с репрессивными правительствами, запустив функцию только в США на данный момент и заявив, что расширение будет осуществляться на индивидуальной основе по странам, учитывая законодательную среду в каждой из них. FAQ теперь призван прояснить это и другие вопросы.
FAQ Apple по CSAM
Apple опубликовала FAQ из шести страниц, призванный снять некоторые из возникших опасений. Он начинается с признания неоднозначной реакции.
Мы хотим защитить детей от хищников, которые используют средства связи для их вербовки и эксплуатации, а также ограничить распространение материалов, связанных с сексуальным насилием над детьми (CSAM). С момента анонса этих функций многие заинтересованные стороны, включая организации по защите конфиденциальности и организации по защите детей, выразили свою поддержку этому новому решению, а некоторые обратились с вопросами. Этот документ служит для ответов на эти вопросы и предоставления большей ясности и прозрачности в процессе.
Затем компания подчеркивает, что первые две функции полностью разделены.
Каковы различия между безопасностью общения в «Сообщениях» и обнаружением CSAM в «Фото» iCloud?
Эти две функции не одинаковы и не используют одинаковую технологию.
Безопасность общения в «Сообщениях» предназначена для предоставления родителям и детям дополнительных инструментов для защиты своих детей от отправки и получения откровенно сексуальных изображений в приложении «Сообщения». Она работает только с изображениями, отправленными или полученными в приложении «Сообщения» для детских учетных записей, настроенных в «Семейном доступе». Она анализирует изображения на устройстве, поэтому не меняет гарантии конфиденциальности «Сообщений». Когда ребенок отправляет или получает откровенно сексуальные изображения, фотография будет размыта, а ребенку будет предложено предупреждение, полезные ресурсы и заверение, что нормально, если он не хочет просматривать или отправлять фотографию. В качестве дополнительной меры предосторожности маленьким детям также могут сообщить, что для обеспечения их безопасности родители получат сообщение, если они все же просмотрят ее.
Вторая функция, обнаружение CSAM в «Фото» iCloud, предназначена для удаления CSAM из «Фото» iCloud без предоставления Apple информации о каких-либо фотографиях, кроме тех, которые соответствуют известным изображениям CSAM. Владение изображениями CSAM незаконно в большинстве стран, включая Соединенные Штаты. Эта функция затрагивает только пользователей, которые решили использовать «Фото» iCloud для хранения своих фотографий. Она не затрагивает пользователей, которые не решили использовать «Фото» iCloud. Она не влияет на другие данные на устройстве. Эта функция не применяется к «Сообщениям».
Другие пункты, подчеркнутые в FAQ, включают:
- Сообщения iMessage, отправленные детям и полученные от них, никогда не передаются правоохранительным органам
- Сообщения iMessage остаются сквозными зашифрованными
- Дети с агрессивными родителями могут безопасно обратиться за помощью через iMessage, если используют только текст
- Родители уведомляются только в том случае, если дети в возрасте 12 лет и младше продолжают, несмотря на предупреждение
- Совпадения отпечатков CSAM проходят ручную проверку перед информированием правоохранительных органов
Самый сложный вопрос остается
Главное опасение, поднятое EFF и другими, остается. Хотя сегодня система отмечает только изображения CSAM, репрессивное правительство могло бы предоставить Apple базу данных, содержащую другие материалы, такие как знаменитое фото «Танкового человека» на площади Тяньаньмэнь, которое цензурируется в Китае.
Apple ответила на это, заявив, что не допустит этого:
Могут ли правительства заставить Apple добавлять изображения, не являющиеся CSAM, в список хэшей?
Apple будет отказываться от любых подобных требований. Возможности обнаружения CSAM Apple созданы исключительно для обнаружения известных изображений CSAM, хранящихся в «Фото» iCloud, которые были идентифицированы экспертами из NCMEC и других групп по защите детей. Мы сталкивались с требованиями создавать и внедрять изменения, предписанные правительством, которые ухудшают конфиденциальность пользователей, и стойко отказывались от этих требований. Мы будем продолжать отказываться от них и в будущем. Позвольте нам ясно заявить, что эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем выполнять никаких запросов правительства на ее расширение. Кроме того, Apple проводит человеческий обзор перед отправкой отчета в NCMEC. В случае, если система отмечает фотографии, не соответствующие известным изображениям CSAM, учетная запись не будет отключена, и отчет в NCMEC не будет подан.
Однако это заявление основано на том, что Apple имеет юридическую свободу для отказа. Например, в Китае Apple была юридически обязана удалить VPN, новости и другие приложения, а также хранить данные iCloud китайских граждан на сервере, принадлежащем компании, контролируемой правительством.
Нет реалистичного способа для Apple обещать, что она не будет выполнять будущие требования по обработке предоставленных правительством баз данных «CSAM-изображений», которые также включают совпадения с материалами, используемыми критиками и протестующими. Как компания часто говорила, защищая свои действия в таких странах, как Китай, Apple соблюдает законы каждой страны, в которой она работает.