Хотите увидеть ожившего Шекспира или подмигивающую вам госпожу Лизу дель Джокондо? С немного пугающей всех нас технологией deepfake это можно сделать всего за пару минут.
Дипфейки — продукт методики синтеза изображения, основанной на искусственном интеллекте — появились в нашей жизни не так давно, однако за последние полгода прочно закрепились в новостных сводках. Ранее мы писали об ожившем благодаря этой технологии 37-м президенте США Ричарде Никсоне, заявившем о провале лунной миссии «Аполлон-11». А под Новый год дипфейк королевы Елизаветы II выступил на телеканале с забавным обращением к нации и обескураживающим британцев танцем на столе.
И если тогда ролики, созданные благодаря технологии соединения и наложения существующих изображений или видео на исходные изображения или видео, выглядели пусть и впечатляюще, но не до конца правдоподобными, то теперь настало время действительно удивиться и даже испугаться.
На днях в соцсети TikTok появился аккаунт Deeptomcruise: на опубликованных видео голливудский актер Том Круз играет в гольф, показывает фокус с исчезающей монеткой и… рассказывает о встрече с Михаилом Горбачевым. Казалось бы, что такого — но только 57-летний звезда серии фильмов «Миссия невыполнима» уже лет 10 не выглядит столь молодо, да и вовсе это не Том Круз.
Вероятно, если бы не подсказка в названии аккаунта, то неискушенному пользователю разобраться в таком невинном обмане поначалу было сложно. Дипфейк выглядит ужасающе правдоподобно. Единственное что — хотя притворяющийся Крузом человек так похоже копирует его знаменитый смех, все же в голосе отличия есть, а синхронизация губ и звука в некоторых моментах не совсем четкая.
Sports!
Во-вторых, «чужие» руки. Однако на такую деталь не каждый обратит внимание, да и придется тщательно сравнивать с фотографиями настоящего актера. В-третьих, на видео есть пара заметных сбоев, особенно в эпизоде с игрой в гольф: когда якобы Том Круз надевает шляпу, солнцезащитные очки на мгновение исчезают, а рот перекашивается. Тем не менее видео вызвали фурор в Сети и уже набрали в сумме более 10 миллионов просмотров.
Следом СМИ сообщили, что сайт MyHeritage, до этого предлагавший услуги по созданию генеалогического древа, запустил сервис Deep Nostalgia. Он позволяет загружать фотографию человека (или картины, или нескольких людей) и получать анимированную версию. Немного напоминает эпизоды британского сериала «Черное зеркало»: мы получаем простую возможность увидеть ожившие лица давно умерших родственников или известных людей из другой эпохи после нескольких кликов.
Но эксперты отмечают, что таким образом сайт MyHeritage собирает ваши данные: анимировать фото можно бесплатно, однако результата вы не получите, пока не зарегистрируетесь и не согласитесь с их условиями и положениями, предоставив некоторую информацию о себе. В прошлом году Норвежский совет потребителей заявил о MyHeritage в соответствующий орган после того, как юридическая оценка показала, что условия сайта не совсем прозрачны. А в 2018 году на портале произошла крупная утечка данных пользователей — позже их обнаружили выставленными на продажу в даркнете.
Саму технологию Deep Nostalgia разработала израильская фирма компьютерного зрения D-ID, которая использовала искусственный интеллект и обучила свои алгоритмы на предварительно записанных видео настоящих людей, их мимике и жестах. «Эту технологию могут использовать исторические организации, музеи и образовательные программы для оживления известных личностей», — рассказали в D-ID.
Пока одна часть интернет-сообщества забавляется с дипфейками и пробует создавать собственные видео, другая часть борется с засильем этой обманывающей технологии. Так, еще в 2019 году в Калифорнии ввели два законам, ограничивающих использование deepfake в штате: один из них позволяет жителям Калифорнии подать в суд на человека, который вставил их лицо в дипфейк-видео порнографического характера.
Помимо этого, существуют алгоритмы для выявления дипфейков. Однако недавно американские специалисты по компьютерной инженерии представили на Зимней конференции по применению компьютерного зрения новую нейросеть, которая довольно простым образом «обманывает» любые подобные детекторы. По словам разработчиков, их решение указать на неэффективность даже самых совершенных средств определения подлинности видео.
Источник: Naked Science