Созданные с помощью алгоритмов глубинного обучения видео не только служат развлечением, но и могут быть средством манипуляции сознанием.

Дипфейки – видео, которые были изменены, чтобы создать иллюзию того, что герой делает или говорит что-то другое, чем на самом деле, переживают эру своего расцвета. С каждым годом таких фейков становится все больше, а сами они становятся все более реалистичными.

Так, в Сети уже имеются искусственно созданные видео с экс-президентом США Бараком Обамой, руководителем соцсети Facebook Марком Цукербегом и с героем популярного шоу "Игра престолов" Джоном Сноу, и некоторые из них выглядят чрезвычайно достоверно.

ТСН.ua разобрался, что такое дипфейки, и почему их сейчас все обсуждают.

Как возникли дипфейки

Впервые о смоделированых видео, известных как дипфейки, заговорили в декабре 2017 года. Тогда автор издания Vice Саманта Коул опубликовала статью о созданное посредством искусственного интеллекта порно, в котором якобы "снималась" звезда популярной киноленты "Чудо-Женщина" Галь Гадот.

В материале шла речь о появлении ряда порновидео с известными селебритис – дипфейков. Примечательно, что свое название они получили за то, что именно так назывался аккаунт пользователя Reddit, который их распространял.

Появление этих роликов было первым зафиксированным случаем, когда один человек был способен быстро создать собственноручно высококачественные и чрезвычайно убедительные фейковые видео.

По словам Коул, изготовлены дипфейки были с помощью программ машинного обучения с открытым кодом вроде TensorFlow, которой "пользуются исследователи, выпускники университетов и вообще все, кто интересуется машинным обучением". Процесс создания этих видео занял не больше чем несколько часов и даже не нуждался в мощной видеокарте.

Самые популярные дипфейки

Однако первые искусственно смоделированные видео возникли еще до того, как тема приобрела общественный резонанс. За несколько месяцев до публикации материала Коул, команда исследователей Университета Вашингтона создала сгенерированное компьютером видео с Бараком Обамой из старых аудио и видеозаписей.

Оно произвело настоящий фурор и вызвало беспокойство в научных кругах. Специалисты опасались того, как подобная технология может быть использована в будущем. Однако на тот момент риск не казался слишком серьезным, ведь запись была создана профессионалами.

Однако уже в 2018-м появилась программа FakeApp. Она привела технологию создания дипфейков в массы и позволила каждому с легкостью создавать собственные дипфейк-видео. Большинство из них, опять же, имели порнографический характер. Однако были и другие – вроде ряда видео, в которых лица героев ряда кинолент заменили на лицо актера Николаса Кейджа.

В этом же году появилось и еще одно видео с Бараком Обамой. Созданное изданием BuzzFeed, оно отличалось от видео ученых из Университета Вашингтона тем, что в нем американский экс-президент произносил фразы, заданные создателем видео.

Изготовил запись один человек. Автор использовал FakeApp – программе потребовалось 56 часов для того, чтобы сгенерировать реалистичное видео с Обамой. И хотя BuzzFeed не скрывал, что запись является дипфейком, это стало первым предупреждением о потенциально опасных последствиях использования технологии.

После этого начали появляться различные смоделированные видео с другими политиками, вроде члена  Демократической партии США Александрии Окасио-Кортес, которое вышло в июне 2018 года. Оно не было дипфейком, но стало средством возможной дезинформации зрителей.

А уже в этом году, в июне 2019, появился дипфейк с владельцем соцсети Facebook Марком Цукербергом. В нем предприниматель якобы признается в том, что "один человек владеет ворованными данными о миллиардах людей, все их тайны, их жизнь и будущее". Примечательно, что в Facebook видео решили не удалять.

Нередко для создания дипфейков используются и популярные киноленты и телешоу. Так, к примеру, недавно появилось сверхпопулярное дипфейк-видео с Сильвестром Сталлоне в роли Терминатора.

Сцена из фильма "Терминатор 2: Судный день" выглядит настолько достоверной, что человек, незнакомый с франшизой, может с легкостью поверить в то, что Сталлоне снимался в киноленте 1991 года. Сам актер отметил: "Это то, как выглядел бы Терминатор, если бы он был со спагетти и пиццы".

Примечательно, что создателем видео является Ctrl Shift Face. Ранее этот пользователь Сети создал популярное видео с Арнольдом Шварцнеггером. В нем лицо губернатора штата Калифорния появляется вместо лица комедианта Билла Хейлера, когда тот пародирует бывшего актера.

Недавно пользователь выложил еще одно видео - в нем нейросеть в фильме "Сияние" (по одноименному роману Стивена Кинга) заменила Джека Николсона на Джима Керри. По мнению комментаторов, это сделало фильм еще более жутким. 

Среди виральних произведений Ctrl Shift Face - видео, в котором на лице главного героя с американской приключенческой комедии "История рыцаря", где Леджер исполнил главную роль, появляется лицо Джокера из "Темного Рыцаря". Этот дипфейк было опубликовано только в прошлом месяце, однако он уже набрал более 500 000 просмотров.

Заслуживает внимания и пародия на сцену из "Бойцовского клуба", которая делает очевидным раздвоение личности главного героя популярной киноленты.

Добрались дипфейки и до "Игры престолов". Так, после выхода последнего сезона культового сериала появилась видеозапись, на котором один из героев шоу – Джон Сноу – просит прощения за то, каким получился финал саги. Однако этот дипфейк, в отличие от других, является очевидной манипуляцией и не вводит никого в заблуждение.

В настоящее время ряд исследователей пытаются изобрести технологию, с помощью которой можно было бы научиться распознавать созданные с помощью алгоритмов глубинного обучения видео. Однако пока что любые попытки сделать это – тщетны.

Оставьте свой комментарий