Жертвы CSAM подали иск против Apple на 1,2 млрд долларов за отказ от инструмента сканирования

Тысячи жертв CSAM подали иск против Apple за отказ от планов по сканированию устройств на предмет наличия материалов, связанных с сексуальным насилием над детьми.

Помимо штрафа в размере более 1,2 миллиарда долларов, компанию могут обязать возобновить планы, от которых она отказалась после того, как многие из нас указали на риск злоупотребления со стороны репрессивных режимов…

История вопроса

Большинство облачных сервисов регулярно сканируют учетные записи пользователей на предмет материалов, связанных с сексуальным насилием над детьми (CSAM), используя метод цифровых отпечатков.

Эти отпечатки — способ сопоставления известных изображений CSAM без необходимости их просмотра. Они разработаны так, чтобы быть достаточно нечеткими, чтобы продолжать сопоставлять изображения, которые были обрезаны или отредактированы иным образом, при этом генерируя очень мало ложных срабатываний. При обнаружении совпадения фотография проверяется вручную человеком. Если это подтверждает, что фотография является CSAM, составляется отчет и передается правоохранительным органам.

iCloud — один из немногих облачных сервисов, который не выполняет такое сканирование, и Apple ссылается на конфиденциальность в качестве причины.

В попытке ввести сканирование CSAM способом, уважающим конфиденциальность, Apple предложила использовать инструмент для сканирования на устройстве, утверждая, что это будет менее навязчивым, чем сканирование фотографий iCloud. Только если будет найдено несколько совпадений, фотографии будут рассмотрены человеком, что является методом дальнейшего снижения риска ложных срабатываний.

Проблема, как многие из нас отмечали, заключалась в возможности злоупотребления со стороны репрессивных правительств.

Цифровой отпечаток может быть создан для любого типа материала, а не только для CSAM. Ничто не мешает авторитарному правительству добавлять в базу данных изображения плакатов политических кампаний или тому подобное.

Инструмент, предназначенный для борьбы с серьезными преступниками, может быть тривиально адаптирован для выявления тех, кто выступает против правительства или одной или нескольких его политик. Apple, которая будет получать базу данных отпечатков от правительств, окажется невольным пособником в репрессиях или преследовании политических активистов.

Apple изначально заявила, что никогда на это не согласится, но многие из нас снова указали, что у нее не будет выбора. Как компания знаменито говорит каждый раз, когда ей приходится делать что-то сомнительное, чтобы соблюдать закон, «Apple соблюдает законы каждой страны, в которой она работает».

Производитель iPhone изначально отклонил этот аргумент, но в конечном итоге отказался от своих планов сканирования CSAM, прежде чем запоздало признать реальность проблемы. Впоследствии Apple использовала этот самый аргумент для противодействия предложенному законодательству.

Жертвы CSAM подают в суд

Arstechnica сообщает, что жертвы CSAM теперь подают иск против Apple за ее неспособность провести сканирование.

Тысячи жертв подали иск против Apple из-за предполагаемого невыполнения компанией обязанностей по обнаружению и сообщению о незаконной детской порнографии, также известной как материалы, связанные с сексуальным насилием над детьми (CSAM) […]

Выжившие после сексуального насилия над детьми, подавшие иск, обвинили Apple в использовании защиты кибербезопасности для игнорирования обязательных обязанностей технологического гиганта по сообщению о CSAM. Если они выиграют суд присяжных, Apple может столкнуться со штрафами на сумму более 1,2 миллиарда долларов. И, пожалуй, что наиболее важно для сторонников конфиденциальности, Apple также может быть вынуждена «идентифицировать, удалять и сообщать о CSAM в iCloud, а также внедрять политики, практики и процедуры для предотвращения дальнейшего распространения CSAM или детской сексуальной эксплуатации в устройствах и услугах Apple». Это может означать судебный приказ о внедрении спорного инструмента или альтернативы, соответствующей отраслевым стандартам массового обнаружения CSAM.

Apple обвиняют в том, что она получает прибыль от своей политики.

По мнению выживших, Apple получает прибыль, позволяя CSAM в iCloud, поскольку хищники используют ее продукты как безопасное убежище для хранения CSAM, о которых большинство других крупных технологических компаний сообщают массово. В то время как Apple сообщила всего о 267 известных случаях CSAM в 2023 году, четыре другие «ведущие технологические компании представили более 32 миллионов отчетов», — отмечается в иске. И если предполагаемый снисходительный подход Apple к CSAM останется без контроля, выжившие опасаются, что ИИ может экспоненциально увеличить количество CSAM, о которых не сообщают.

В ответ компания заявила, что предпринимает проактивные шаги для решения этой проблемы.

Материалы, связанные с сексуальным насилием над детьми, отвратительны, и мы стремимся бороться с тем, как хищники подвергают детей риску. Мы срочно и активно внедряем инновации для борьбы с этими преступлениями, не ставя под угрозу безопасность и конфиденциальность всех наших пользователей. Такие функции, как «Безопасность общения», например, предупреждают детей, когда они получают или пытаются отправить контент, содержащий наготу, чтобы помочь прервать цепочку принуждения, ведущую к сексуальному насилию над детьми. Мы по-прежнему глубоко сосредоточены на создании мер защиты, которые помогают предотвратить распространение CSAM до его начала.

Мнение 9to5Mac

Эта ситуация — безвыигрышная для всех участников. Существует неизбежный конфликт между обнаружением поистине отвратительного преступления и риском того, что репрессивное правительство воспользуется им.

Если бы Apple с самого начала приняла стандартную практику сканирования фотографий iCloud, вполне вероятно, что это никогда не стало бы спорным вопросом. По иронии судьбы, именно попытка компании достичь той же цели более уважительным к конфиденциальности способом привела к этому спору.

В данный момент, вероятно, в интересах самой Apple, чтобы суд вынес решение по этому вопросу. Если компания будет вынуждена внедрить сканирование, и в будущем правительство злоупотребит этим, компания сможет по крайней мере указать, что у нее не было выбора. И наоборот, если Apple выиграет дело, это может создать юридический прецедент, который снимет дальнейшее давление.

Фото: Дэн Голд/Unsplash