Созданные с помощью алгоритмов глубинного обучения видео не только служат развлечением, но и могут быть средством манипуляции сознанием.

Дипфейки – видео, которые были изменены, чтобы создать иллюзию того, что герой делает или говорит что-то другое, чем на самом деле, переживают эру своего расцвета. С каждым годом таких фейков становится все больше, а сами они становятся все более реалистичными.

Так, в Сети уже имеются искусственно созданные видео с экс-президентом США Бараком Обамой, руководителем соцсети Facebook Марком Цукербегом и с героем популярного шоу "Игра престолов" Джоном Сноу, и некоторые из них выглядят чрезвычайно достоверно.

ТСН.ua разобрался, что такое дипфейки, и почему их сейчас все обсуждают.

Как возникли дипфейки

Впервые о смоделированых видео, известных как дипфейки, заговорили в декабре 2017 года. Тогда автор издания Vice Саманта Коул опубликовала статью о созданное посредством искусственного интеллекта порно, в котором якобы "снималась" звезда популярной киноленты "Чудо-Женщина" Галь Гадот.

В материале шла речь о появлении ряда порновидео с известными селебритис – дипфейков. Примечательно, что свое название они получили за то, что именно так назывался аккаунт пользователя Reddit, который их распространял.

Появление этих роликов было первым зафиксированным случаем, когда один человек был способен быстро создать собственноручно высококачественные и чрезвычайно убедительные фейковые видео.

По словам Коул, изготовлены дипфейки были с помощью программ машинного обучения с открытым кодом вроде TensorFlow, которой "пользуются исследователи, выпускники университетов и вообще все, кто интересуется машинным обучением". Процесс создания этих видео занял не больше чем несколько часов и даже не нуждался в мощной видеокарте.

Самые популярные дипфейки

Однако первые искусственно смоделированные видео возникли еще до того, как тема приобрела общественный резонанс. За несколько месяцев до публикации материала Коул, команда исследователей Университета Вашингтона создала сгенерированное компьютером видео с Бараком Обамой из старых аудио и видеозаписей.

Оно произвело настоящий фурор и вызвало беспокойство в научных кругах. Специалисты опасались того, как подобная технология может быть использована в будущем. Однако на тот момент риск не казался слишком серьезным, ведь запись была создана профессионалами.

Однако уже в 2018-м появилась программа FakeApp. Она привела технологию создания дипфейков в массы и позволила каждому с легкостью создавать собственные дипфейк-видео. Большинство из них, опять же, имели порнографический характер. Однако были и другие – вроде ряда видео, в которых лица героев ряда кинолент заменили на лицо актера Николаса Кейджа.

В этом же году появилось и еще одно видео с Бараком Обамой. Созданное изданием BuzzFeed, оно отличалось от видео ученых из Университета Вашингтона тем, что в нем американский экс-президент произносил фразы, заданные создателем видео.

Изготовил запись один человек. Автор использовал FakeApp – программе потребовалось 56 часов для того, чтобы сгенерировать реалистичное видео с Обамой. И хотя BuzzFeed не скрывал, что запись является дипфейком, это стало первым предупреждением о потенциально опасных последствиях использования технологии.

После этого начали появляться различные смоделированные видео с другими политиками, вроде члена  Демократической партии США Александрии Окасио-Кортес, которое вышло в июне 2018 года. Оно не было дипфейком, но стало средством возможной дезинформации зрителей.

А уже в этом году, в июне 2019, появился дипфейк с владельцем соцсети Facebook Марком Цукербергом. В нем предприниматель якобы признается в том, что "один человек владеет ворованными данными о миллиардах людей, все их тайны, их жизнь и будущее". Примечательно, что в Facebook видео решили не удалять.

Этого июля в Сети также появилось дипфейк-видео, на котором "скрестили" президента США Дональда Трампа и президента России Владимира Путина. Сделал его моушн-дизайнер и художник из Берлина Александр Курт (Alexander Court) с помощью нейросети.

Курт создал ролик с помощью программы DeepFaceLab, а затем провел пост-обработку в Adobe After Effects.

Моушн-дизайнер потратил на тренировки алгоритма 240000 эпох - иными словами, нейросеть училась 240000 раз в одном наборе данных.

Нередко для создания дипфейков используются и популярные фильмы и телешоу. Так, к примеру, недавно Курт создал реалистичное видео, в котором лицо актера, играющего Марка Цукерберга в "Социальной сети", заменено на лицо реального создателя Facebook.

Cреди популярных работ Александра Курта и смешное видео "омоложения" Леонардо Ди Каприо. В подписи к нему моушн-дизайнер отметил: "Лео не выиграл" Оскар "за киноленту" Титаник ", однако если бы это случилось, то выглядело бы так".

В этом году также появилось сверхпопулярное дипфейк-видео с Сильвестром Сталлоне в роли Терминатора.

Сцена из фильма "Терминатор 2: Судный день" выглядит настолько достоверной, что человек, незнакомый с франшизой, может с легкостью поверить в то, что Сталлоне снимался в киноленте 1991 года. Сам актер отметил: "Это то, как выглядел бы Терминатор, если бы он был со спагетти и пиццы".

Примечательно, что создателем видео является Ctrl Shift Face. Ранее этот пользователь Сети создал популярное видео с Арнольдом Шварцнеггером. В нем лицо губернатора штата Калифорния появляется вместо лица комедианта Билла Хейлера, когда тот пародирует бывшего актера.

Недавно пользователь выложил еще одно видео - в нем нейросеть в фильме "Сияние" (по одноименному роману Стивена Кинга) заменила Джека Николсона на Джима Керри. По мнению комментаторов, это сделало фильм еще более жутким. 

Среди виральних произведений Ctrl Shift Face - видео, в котором на лице главного героя с американской приключенческой комедии "История рыцаря", где Леджер исполнил главную роль, появляется лицо Джокера из "Темного Рыцаря". Этот дипфейк было опубликовано только в прошлом месяце, однако он уже набрал более 500 000 просмотров.

Заслуживает внимания и пародия на сцену из "Бойцовского клуба", которая делает очевидным раздвоение личности главного героя популярной киноленты.

Добрались дипфейки и до "Игры престолов". Так, после выхода последнего сезона культового сериала появилась видеозапись, на котором один из героев шоу – Джон Сноу – просит прощения за то, каким получился финал саги. Однако этот дипфейк, в отличие от других, является очевидной манипуляцией и не вводит никого в заблуждение.

В настоящее время ряд исследователей пытаются изобрести технологию, с помощью которой можно было бы научиться распознавать созданные с помощью алгоритмов глубинного обучения видео. Однако пока что любые попытки сделать это – тщетны.

Оставьте свой комментарий