
В рамках кампании по борьбе с дезинформацией во время президентских выборов 2020 года Facebook запрещает дипфейки: чрезвычайно убедительные поддельные видео, созданные с использованием методов ИИ.
Дипфейки используют машинное обучение для анализа движений лица человека во время произнесения различных звуков. Затем ИИ может создавать поддельное видео, имитирующее движения, необходимые для любого слова. Это может быть объединено либо с нарезанными звуковыми фрагментами реального человека, либо с импрессионистом, чтобы создать полные поддельные речи, которые трудно отличить от реальной видеозаписи…
Университет Вашингтона использовал эту технологию еще летом 2017 года для создания поддельной речи Обамы (см. ниже).
Facebook заявляет, что теперь запрещает дипфейки.
Каждый день люди делятся миллионами фотографий и видео в Facebook, создавая одни из самых убедительных и креативных визуальных материалов на нашей платформе. Часть этого контента манипулируется, часто по уважительным причинам, например, для повышения четкости видео или улучшения звука. Но есть люди, которые занимаются медиа-манипуляциями с целью введения в заблуждение.
Манипуляции могут осуществляться с помощью простых технологий, таких как Photoshop, или с помощью сложных инструментов, использующих методы искусственного интеллекта или «глубокого обучения» для создания видео, искажающих реальность – обычно называемых «дипфейками». Хотя такие видео все еще редки в интернете, они представляют собой серьезную проблему для нашей отрасли и общества, поскольку их использование растет…
Мы усиливаем нашу политику в отношении вводящих в заблуждение манипулированных видео, которые были идентифицированы как дипфейки. В дальнейшем мы будем удалять вводящие в заблуждение манипулированные медиа, если они соответствуют следующим критериям:
- Они были отредактированы или синтезированы — помимо корректировок для ясности или качества — таким образом, который не очевиден для обычного человека и может ввести кого-то в заблуждение, заставив думать, что субъект видео сказал слова, которые он на самом деле не говорил. И:
- Это продукт искусственного интеллекта или машинного обучения, который объединяет, заменяет или накладывает контент на видео, создавая видимость подлинности.
Однако критерий ИИ означает, что вводящие в заблуждение видео будут *не* запрещены, если они созданы с помощью традиционных инструментов редактирования. Как отмечает Washington Post, это означает, что такие клипы, как вирусное видео спикера Палаты представителей Нэнси Пелоси, не будут запрещены.
В мае кто-то создал видео Пелоси, которое заставило ее казаться пьяной. Это было достигнуто путем замедления видеозаписи до 75% от нормальной скорости, а затем корректировки тона ее голоса для компенсации. В результате получилось убедительное видео, в котором Пелоси, казалось, говорила сбивчиво и долго обдумывала свои мысли. Как отмечает Post, это видео все равно будет разрешено по новой политике.
Facebook утверждает, что это не единственный предпринятый шаг.
Видео, которые не соответствуют этим стандартам удаления, по-прежнему подлежат проверке одним из наших независимых сторонних фактчекеров, в число которых входят более 50 партнеров по всему миру, проверяющих факты более чем на 40 языках. Если фото или видео помечены фактчекером как ложные или частично ложные, мы значительно сокращаем их распространение в Ленте новостей и отклоняем, если они используются в качестве рекламы. И, что критически важно, люди, которые видят это, пытаются поделиться этим или уже поделились им, увидят предупреждения, уведомляющие их о том, что это ложь.
Социальная сеть утверждает, что такой подход лучше, чем простое удаление.
Если бы мы просто удалили все манипулированные видео, помеченные фактчекерами как ложные, видео все равно были бы доступны в других местах в интернете или экосистеме социальных сетей. Оставляя их и помечая как ложные, мы предоставляем людям важную информацию и контекст.
Однако трудно понять, почему Facebook запрещает дипфейки, а не поддельные видео, созданные без использования ИИ. Почему бы либо не запретить все поддельные видео, либо разрешить их все, но пометить как поддельные? Метод, используемый для создания подделки, кажется странным критерием для определения того, как с ней обращаться.
Пример дипфейк-видео вы можете увидеть ниже.