Начальник отдела по борьбе с мошенничеством Apple заявил, что компания «является лучшей платформой для распространения детской порнографии».

Обновление: Теперь появилось вероятное объяснение этого заявления.

Объяснение противоречивого решения Apple начать сканирование iPhone на предмет CSAM найдено в заявлении начальника отдела по борьбе с мошенничеством Apple от 2020 года.

Эрик Фридман, так сказать, заявил: «Мы являемся лучшей платформой для распространения детской порнографии». Однако это откровение ставит вопрос: откуда Apple могла это знать, если она не сканировала учетные записи iCloud…?

Переписку в iMessage обнаружил The Verge, изучая внутренние электронные письма, сообщения и другие материалы, переданные Apple в рамках процесса раскрытия доказательств по иску Epic Games.

По иронии судьбы, Фридман на самом деле предполагает, что Facebook лучше справляется с его обнаружением, чем Apple.

Основное внимание Facebook и других компаний уделяется доверию и безопасности (фальшивые учетные записи и т. д.). В плане конфиденциальности они отстой.

Наши приоритеты прямо противоположны. Именно поэтому мы являемся лучшей платформой для распространения детской порнографии и т. д.

Коллега-руководитель ставит под сомнение это, спрашивая, действительно ли это так.

Серьезно? Я имею в виду, неужели в нашей экосистеме так много такого? Я думал, что в других системах обмена файлами у злоумышленников гораздо больше возможностей.

Фридман отвечает одним словом: «Да».

Документ, что неудивительно, помечен как «Строго конфиденциально – только для адвокатов».

Потрясающее откровение может быть объяснено тем фактом, что хранение фотографий в iCloud включено по умолчанию, даже если это всего лишь скромные 5 ГБ, которые компания предоставляет всем по умолчанию. Это означает, что сервис может быть самым используемым облачным сервисом для фотографий – в отличие от конкурирующих сервисов, где пользователям нужно явно включать его.

Apple заявила, что рассматривает проблему CSAM некоторое время и пыталась найти способ ее обнаружения, который бы защищал конфиденциальность. Возможно, именно этот разговор побудил компанию ускорить эти усилия.

Предыстория вряд ли существенно повлияет на споры вокруг решения Apple проводить на устройстве сканирование фотографий клиентов, но она, по крайней мере, дает некоторый контекст тому, что многие считают несоответствующим сильным заявлениям компании о конфиденциальности. Безусловно, будь я на месте генерального директора Тима Кука, когда мне это было представлено, я бы хотел действовать.

Однако это также поднимает вопрос: откуда Фридман это знал? iMessage имеет сквозное шифрование, и Apple заявляет, что не хотела сканировать iCloud на предмет CSAM. Так если компания этого не делала, откуда у нее могли быть сведения о масштабах проблемы в ее экосистеме?

В продолжающейся саге о CSAM произошло множество недавних событий. Правительства и правозащитные организации призывают компанию отказаться от запланированного развертывания. Разработчик провел обратную разработку основного алгоритма, используемого Apple, а другому удалось его обмануть. Однако, по нашим данным, меры безопасности, применяемые Apple, означают, что реальный риск ложного срабатывания очень низок.

Изменит ли это откровение ваше мнение о планах Apple по сканированию CSAM? Проголосуйте в нашем опросе и поделитесь своим мнением в комментариях.