Apple подала в суд Западная Вирджиния из-за предполагаемого отказа предотвратить распространение CSAM

Apple была подана в суд штатом Западная Вирджиния по обвинению в неспособности предотвратить распространение материалов, связанных с сексуальным насилием над детьми (CSAM), через сервисы iCloud, такие как iMessage и Photos. Подробности далее.

Иск утверждает, что другие технологические компании лучше борются с CSAM

Лора Колодни пишет в CNBC:

Генеральный прокурор Западной Вирджинии подал иск о защите прав потребителей против Apple, утверждая, что компания не смогла предотвратить хранение и распространение материалов, связанных с сексуальным насилием над детьми, через устройства iOS и сервисы iCloud.

Джон «Джей Би» МакКаски, республиканец, обвинил Apple в том, что она ставит конфиденциальность и собственные деловые интересы выше безопасности детей, в то время как другие крупные технологические компании, включая Google, Microsoft и Dropbox, действуют более активно, используя такие системы, как PhotoDNA, для борьбы с подобными материалами.

Еще в 2021 году Apple анонсировала ряд новых мер по пресечению распространения CSAM на своих устройствах. Однако один из этих анонсов так и не был реализован.

Apple планировала внедрить систему обнаружения CSAM в приложение «Фото», от которой, после серьезных опасений, выраженных исследователями конфиденциальности, она позже отказалась.

Существовал страх, что создание этой новой системы откроет возможность для правительств требовать доступа к частным пользовательским данным.

Apple внедрила другие функции, связанные с безопасностью детей, направленные на прекращение распространения CSAM, в том числе с iOS 26. Тем не менее, Западная Вирджиния явно считает, что компания сделала недостаточно.

Apple сообщила CNBC следующее:

В письменном заявлении представитель Apple сообщил CNBC, что «защита безопасности и конфиденциальности наших пользователей, особенно детей, лежит в основе нашей деятельности».

Компания указала на родительский контроль и такие функции, как «Безопасность общения», которые «автоматически вмешиваются в работу детских устройств при обнаружении наготы в Сообщениях, общих Фото, AirDrop и даже в звонках FaceTime в реальном времени», как на свидетельство ее приверженности обеспечению «безопасности, надежности и конфиденциальности» для пользователей.

«Мы постоянно внедряем инновации для борьбы с постоянно меняющимися угрозами и поддержания самой безопасной и надежной платформы для детей», — добавил представитель.

Мы будем держать вас в курсе любых значимых обновлений по этому делу.

Лучшие аксессуары для iPhone