Apple действительно попала в безвыходную ситуацию с CSAM. Если компания продолжит, ее осудят группы по защите гражданских прав и профессионалы в области безопасности. Если нет — ее осудят группы по защите детей.
В настоящее время компания выиграла себе время, отложив развертывание, пока пытается придумать дополнительные меры безопасности, но остается вопрос: какими они могут быть? …
Проведя годы, расхваливая репутацию конфиденциальности своих устройств и политик, включая знаменитый слоган «Что происходит на вашем iPhone, остается на вашем iPhone», не должно было стать сюрпризом для Apple, что это объявление оказалось противоречивым.
Компания разместила огромные рекламные щиты. Она запускала забавные рекламные ролики. У нее есть целый отдельный сайт, посвященный конфиденциальности. Ее генеральный директор говорит о конфиденциальности в каждом интервью и публичном выступлении. Компания атакует другие технологические гиганты по вопросам конфиденциальности. Она боролась со всей рекламной индустрией из-за новой функции конфиденциальности.
Но по какой-то причине Apple не смогла предвидеть PR-катастрофу, которую она себе создавала, и теперь ей нужно найти выход из этой ситуации.
Аргументы «за» и «против» в двух словах
Самая большая проблема заключается в том, что репрессивное правительство может заставить Apple добавить политические материалы в базы данных CSAM, которые она использует, или просто предоставить базу данных и сказать, что Apple должна использовать именно ее.
Apple ответила, заявив, что будет использовать только «безопасные» базы данных.
Может ли система обнаружения CSAM в iCloud Photos использоваться для обнаружения чего-либо, кроме CSAM? Наша система разработана таким образом, чтобы этого не произошло.
Обнаружение CSAM для iCloud Photos создано таким образом, что система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями по безопасности детей. Этот набор хэшей изображений основан на изображениях, полученных и проверенных как CSAM как минимум двумя организациями по безопасности детей.
Нет автоматической передачи информации правоохранительным органам, и Apple проводит проверку человеком перед тем, как передать отчет в NCMEC. В результате система предназначена только для сообщений об известных CSAM-изображениях в iCloud Photos.
Контраргумент заключается в том, что это обещание Apple не может сдержать. Как компания заявляла по поводу предыдущих противоречий, Apple соблюдает местные законы в каждой из стран, в которых она работает. Действительно, она недавно поддалась шантажу до вступления в силу нового закона.
Некоторые отвергают этот аргумент, говоря, что Apple уже может быть вынуждена или шантажирована к компрометации конфиденциальности пользователей другими способами — как мы видели в Китае — и поэтому сканирование CSAM ничего не меняет. Мое мнение остается прежним: настройка сканирования CSAM по-прежнему является особенно эффективным способом для правительства, желающего выявлять политических оппонентов, и это может быть сделано без такого же освещения, как при масштабных изменениях, вроде китайских серверов.
Как Apple может разрешить свою безвыходную ситуацию с CSAM?
Я вижу два возможных пути для Apple.
Первый — просто продолжить откладывать развертывание на неопределенный срок. Таким образом, она не возродит все возражения против гражданских свобод, активировав функцию, и не разозлит группы по защите детей, объявляя о повороте назад. В любое время, когда ее будут спрашивать, она может просто заявить, что продолжает работать над разработкой дополнительных мер безопасности, и надеяться, что люди в конечном итоге устанут спрашивать.
Я думаю, что это может сработать на какое-то значительное время — но не на неопределенный срок. В какой-то момент группы по защите детей встанут и потребуют знать, когда система будет запущена. Apple не сможет добраться до iOS 16, например, не запустив функцию или не отказавшись от своих планов, и вряд ли ей это сойдет с рук так долго.
Второй, и лучший, путь — объявить независимый наблюдательный совет в стиле Facebook. Работа этого совета будет заключаться в проверке содержимого каждой базы данных CSAM, используемой Apple по всему миру. Умным решением было бы пригласить в этот совет самых громких критиков CSAM, таких как академик в области кибербезопасности Мэтью Грин.
Таким образом, нам не придется верить Apple на слово, что она не использует скомпрометированные базы данных; у нас будут независимые эксперты по безопасности, которые это подтвердят. Если эти независимые эксперты включают людей, которые были наиболее скептичны в отношении мер безопасности Apple, то мы можем быть чрезвычайно уверены в их выводах.
Первой задачей этого наблюдательного совета будет проверка существующих мер безопасности Apple и выработка рекомендаций по дополнительным. Как и Facebook, Apple обязуется следовать решениям совета.
Я думаю, что это могло бы разрешить проблему к всеобщему удовлетворению — и, в худшем случае, если это не поможет, Apple сможет по крайней мере обезопасить себя, указав, что она просто выполняет запросы независимого наблюдательного совета.
Каково ваше мнение? Считаете ли вы, что это может быть хорошим способом для Apple выбраться из ее текущей безвыходной ситуации с CSAM? Пожалуйста, примите участие в нашем опросе и поделитесь своими мыслями в комментариях.
https://poll.fm/10923819