Новый отчет: Подсказки и реклама в App Store направляли пользователей к приложениям для «раздевания»

Проект Tech Transparency Project (TTP) опубликовал новое расследование, которое последовало за его январским отчетом, раскрывшим десятки приложений для «раздевания» («nudify») в App Store. Новое исследование сфокусировано на том, как собственные поисковые системы и рекламные механизмы Apple могли помогать пользователям находить эти приложения. Подробности ниже.

Приложения для «раздевания» остаются проблемой в магазинах приложений

Согласно новому отчету, как App Store, так и Google Play Store «помогают пользователям находить приложения, создающие дипфейковые (deepfake) обнаженные изображения женщин», иногда с помощью продвигаемых результатов поиска и подсказок автозаполнения.

В отчете TTP утверждает, что Apple и Google по-прежнему не могут предотвратить появление в их магазинах приложений для «раздевания», некоторые из которых позиционируются как подходящие для несовершеннолетних. Группа обнаружила, что почти 40% из топ-10 приложений, выдаваемых по запросам вроде «nudify», «undress» (раздевать) и «deepnude» (глубокое обнажение), могли «делать женщин обнаженными или одетыми в откровенную одежду».

Кроме того, некоторые поисковые запросы выдавали спонсируемые результаты для этих приложений. Из отчета:

«(…) первым результатом поиска в App Store по запросу «deepfake» стала реклама приложения FaceSwap Video от DuoFace. Приложение позволяет пользователям подставлять лицо любого человека из статичного изображения в видео. Чтобы протестировать приложение, TTP загрузил изображение женщины в белом свитере, стоящей на тротуаре, и видео с топлес-женщиной. После короткой рекламы приложение сгенерировало видео, показывающее лицо одетой женщины на теле обнаженной женщины.»

И

«Другой поиск в App Store по термину «face swap» (замена лиц) выдал рекламу приложения под названием AI Face Swap. Приложение предлагает готовые шаблоны для замены лиц и позволяет пользователям менять лица на загруженных ими изображениях. TTP загрузил фотографию женщины в синем свитере, стоящей в гостиной, и изображение топлес-женщины, и приложение поменяло их лица без каких-либо ограничений.»

Интересно, что помимо обращения в Apple и Google по поводу этих выводов, TPP также связался с разработчиками нескольких из этих приложений. По крайней мере, в одном случае разработчик приложения подтвердил, что использовал Grok для генерации изображений, но заявил, что «не имел понятия, что он способен создавать такой экстремальный контент». Разработчик пообещал ужесточить настройки модерации для генерации изображений.

Возвращаясь к отчету, TTP отметил, что ввод «AI NS» в качестве части поискового запроса, который мог привести к «AI NSFW» (неприемлемо для рабочего места), побудил App Store предложить «image to video ai nsfw» (изображение в видео ИИ NSFW). Этот поиск, в свою очередь, вернул несколько приложений для «раздевания» в топ-десятку результатов.

Несмотря на отказ комментировать запрос TTP, Apple отреагировала на отчет, удалив большинство приложений, выявленных TTP.

Чтобы ознакомиться с полным отчетом TTP, перейдите по этой ссылке.

Стоит посмотреть на Amazon