Meta считает, что социальные сети могут защитить нас от дипфейков

Дипфейки, возможно, являются самым опасным аспектом ИИ. В настоящее время относительно легко создавать поддельные фотографии, аудио и даже видео. Например, ниже вы найдете дипфейки Моргана Фримена и Тома Круза.

Но в то время как социальные сети до сих пор использовались как механизм распространения дипфейков, глава Instagram Адам Моссери считает, что они могут играть ключевую роль в их разоблачении…

Как создаются дипфейки

Основным методом создания видео с дипфейками до сих пор был подход, известный как генеративно-состязательные сети (GAN).

Одна ИИ-модель генерирует поддельный видеоролик или отображает подлинный. Вторая ИИ-модель пытается идентифицировать подделки. Многократное повторение этого процесса обучает первую модель создавать все более убедительные подделки.

Однако модели диффузии, такие как DALL-E 2, сейчас берут верх. Они берут реальные видеоматериалы, затем вносят различные изменения, чтобы создать большое количество их вариаций. Текстовые подсказки могут использоваться для инструктажа ИИ-модели о желаемых результатах, что делает их проще в использовании – и чем больше людей их использует, тем лучше они обучаются.

Примеры видео с дипфейками

Вот известный пример дипфейка Моргана Фримена, созданный целых три года назад, когда технология была гораздо менее совершенной, чем сегодня:

А вот другой, с Томом Крузом в роли Железного Человека:

Британцы также могут узнать Мартина Льюиса, известного своими финансовыми советами, здесь в дипфейке, рекламирующем крипто-мошенничество:

Meta считает, что социальные сети могут помочь

Руководитель Meta Адам Моссери считает, что социальные сети на самом деле могут сделать ситуацию лучше, а не хуже, помогая помечать поддельный контент – хотя он и отмечает, что это не идеально, и каждому из нас нужно учитывать источники.

С годами мы становились все более искусными в создании реалистичных изображений, как статичных, так и движущихся. «Парк Юрского периода» поразил меня в десять лет, но это был фильм за 63 миллиона долларов. Golden Eye для N64 была еще более впечатляющей для меня через четыре года, потому что она была в реальном времени. Оглядываясь назад на эти медиа сейчас, они кажутся, в лучшем случае, грубыми. Независимо от того, являетесь ли вы быком или медведем в этой технологии, генеративный ИИ явно производит контент, который трудно отличить от записей реальности, и быстро совершенствуется.

Друг, @lessin, около десяти лет назад подтолкнул меня к идее, что любое утверждение должно оцениваться не только по его содержанию, но и по достоверности лица или организации, делающей это утверждение. Возможно, это произошло много лет назад, но кажется, что именно сейчас мы коллективно осознаем, что стало важнее учитывать, кто говорит, а не что они говорят, при оценке достоверности заявления.

Наша роль как интернет-платформ заключается в том, чтобы максимально точно маркировать контент, сгенерированный ИИ. Но некоторый контент неизбежно будет просачиваться, и не все искажения будут сгенерированы с помощью ИИ, поэтому мы также должны предоставлять контекст о том, кто делится информацией, чтобы вы могли самостоятельно оценить, насколько вы хотите доверять их контенту.

Зрителю или читателю будет все более важно проявлять проницательность при потреблении контента, выдаваемого за отчет или запись реальности. Мой совет: *всегда* думайте о том, кто говорит.

Изображение: Shamook