Вы уже наверняка слышали что-то о «глубоких фейках» (их еще называют дипфейк – от английского deep fake) – новейших технологиях, которые вдохновили такие заголовки, как «Нам реально п…ц» и «Глубокие фейки: надвигающийся кризис для национальной безопасности, демократии и конфиденциальности»?
Глубокий фейк — это видео, на котором лицо одного человека приделано к чужому телу. Хотя теоретически в этом нет ничего нового, «глубокие фейковые» видео могут быть удивительно убедительными, а программное обеспечение для их создания быстро развивается, провоцируя заголовки, подобные приведенным выше.
Широко распространен видеоролик, где бывший президент Барак Обама вроде бы обращается к общественности по проблеме фейковых новостей. На самом деле это кинорежиссер Джордан Пил вкладывает собственные слова в уста Обамы — причем на удивление реалистично.
You won't believe what Obama says in this video 😉 pic.twitter.com/n2KloCdF2G
— BuzzFeed (@BuzzFeed) April 17, 2018
Как отмечали выступающие на недавней панели SXSW, видеоролики действуют на человеческую психику глубже, чем статичные изображения, поэтому они могут быть гораздо более эффективными.
На рынке уже доступны такие продукты, как FakeApp, помогающие создавать поддельные видеоролики, в ближайшее время там появятся инструменты для аудио-манипуляций. По словам Дони О’Салливана, продюсера в команде CNN Social Discovery, звуковые инструменты потенциально могут быть даже более опасными.
«Если вы убедительно подделаете то, что кто-то вроде бы сказал, хотя на самом деле этого не было, и распространите это аудио, – сказал О’Салливан GIJN, – проверить его будет намного труднее».
Технологии для производства таких «глубоких фейков» настолько новые, что традиционные группы, которые работают над пресечением попыток распространять дезинформацию, изо всех сил пытаются от них не отстать, – рассказал ведущий исследователь и тренер Bellingcat Арик Толер.
Но это не означает, что нет людей, которые не работают над этим.
Куда направлены усилия по предотвращению распространения глубоких фейков
Инструменты, которые помогают выловить «глубокие фейки», на данный момент практически отсутствуют, но ученые, журналисты и технологические компании пытаются поскорее их создать. Google объявил о том, что разрабатывает инструмент для идентификации измененных видеороликов, но не сказал, когда он выйдет и каковы будут его возможности.
Команда Лаборатории визуальных вычислений в Мюнхене разработала FaceForensics, программу, которая успешно идентифицирует измененные видео в исходном виде, но намного менее успешно — видео, которое было сжато для Интернета.
Другая команда из Италии предложила метод выявления несоответствий в кровообращении на лице человека.
Gfycat, сайт, наиболее известный размещением смешных gif-ок с кошками и знаменитостями, возможно, владеет самым продвинутым на данный момент механизмом распознавания. Журнал Wired описал инструменты искусственного интеллекта, которые Gfycat использует для отсеивания «глубоко фейкового» контента на своем сайте. Один из них пытается заблокировать лицо и найти видео, соответствующее фону. Другой фиксирует низкокачественное видео со знаменитостью, если более качественная версия существует в другом месте. Подразумевается, что менее качественная версия одного и того же видео может быть глубоким фейком. Это не панацея, но по крайней мере один из способов использования технологий для идентификации таких продуктов.
Однако эти инструменты разработаны только для внутреннего употребления, и Gfycat не объявлял о каких-либо планах сделать их общедоступными.
Команда из Мюнхена разместила скрипт на Github, но готова делиться своими данными только с теми, кто письменно соглашается с условиями их использования.
Лицензирование программного обеспечения для производства «глубоких фейков» или ограничение доступа к нему является одним из решений, предложенных группой ученых в недавнем исследовании о злонамеренном использовании искусственного интеллекта. Эта группа, состоящая из представителей Electronic Frontier Foundation, Оксфордского университета и других, сосредоточилась на теоретических путях будущего развития, поскольку сама тема настолько нова.
Команда из Университета Миссури разрабатывает программу под названием VeriPixel, которая будет использовать технологию блокчейн для привязки к изображениям, снятым на смартфоны или камеры.
«Нужен механизм, который подскажет вам, что да, файл действительно является оригиналом, – сказал GIJN Уильям Фрайз, один из разработчиков. – Преимущество блокчейн заключается в том, что… независимо от того, что происходит, эта историческая информация всегда является точной».
Но VeriPixel, как и другие программы, все еще находится на стадии разработки.
А покамест у журналистов есть только то, на что они всегда полагались — критическое мышление. Проверка бэкграунда, поиск подтверждающих доказательств и, самое главное, старая добрая журналистская работа — это всегда лучший подход к ненадежному источнику, является ли он «глубоким фейком» или нет.
Пока мы ждем выхода более совершенных инструментов, вот несколько шагов, которые могут предпринять журналисты, когда сталкиваются с видео, похожим на «глубокий фейк»:
Выискивайте распространенные недостатки
-
Изучите лицо и движения
В настоящее время одним из преимуществ журналистов является то, что «глубокие фейки» как постановки еще недостаточно хороши для прохождения “зрительного теста”, рассказал Толер из Bellingcat.
Поскольку суть глубокого фейка — это человеческое лицо, наклеенное на чужое тело, область вокруг лица является самым важным местом для поиска расхождений. Вам кажутся странными освещение или тени? Как насчет движений рта, подбородка и челюсти? Они выглядят как естественные движения обычного человека?
Создатели таких видеороликов пока еще не способны полностью воссоздать движение волос, сказал в интервью GIJN Чарли Варзел, старший техрепортер BuzzFeed. Он советует обратить внимание на волосы и рот, чтобы заметить что-то неестественное.
Эта статья на HowToGeek предлагает несколько советов по выявлению несоответствий между реальными чертами лица на видео и «глубоким видеофейком». Вот несколько вещей, на которые нужно обращать внимание:
- Мерцание
- Размытости в районе рта или лица
- Неестественные тени или свет
- Неестественные движения, особенно рта, челюсти и бровей
- Расхождения в оттенках кожи или строении тела
- Движения губ, которые напоминают синхронизацию
-
Воспроизводите видео покадрово
Варзел рекомендует замедлять видео или несколько раз ставить его на паузу — использовать любые приемы, сказал он, чтобы повысить свои шансы обнаружить несоответствие.
How to spot a "deepfake" video like the Barack Obama one, according to @cwarzel
1️⃣ Slow it down and look for glitches
2️⃣ Watch it again and see if it seems "too good to be true" pic.twitter.com/njQXTUsyYb— AM2DM by BuzzFeed News (@AM2DM) April 18, 2018
К примеру, просмотр фейкового видео BuzzFeed с Обамой замедленного вдвое помогает заметить размытость вокруг рта и подбородка. Рот «Обамы» также движется в сторону на лице не так, как это происходило бы у живого говорящего человека.
Варзел также посоветовал просматривать видео кадр за кадром — либо несколько раз подряд приостанавливать его, или открывать его в монтажной программе, например Final Cut.
Ищите подтверждение событию
-
Проанализируйте сети
Если видео убедительно в техническом смысле, рассказал О’Салливан, попробуйте найти другую онлайновую версию. Журналисты могут и должны использовать ту же тактику для проверки глубокого фейка, что и для любого другого сомнительного видео.
Проследите происхождение видео — кто именно якобы его снял? Разместил в Интернете? Поделился им – и с кем? Источник делился им много раз или со многими людьми?
«Иногда это признак того, что это часть скоординированной кампании, а не сбора и обмена настоящими новостями», – сказал Варзел.
-
Сделайте перекрестную проверку черт лица с другими источниками
К счастью, сказал Варзел, на данном этапе глубокие фейки показывают в основном знаменитостей и других публичных лиц. Это означает, что заполучить изображения и видеоматериалы такого человека обычно легко. Он объяснил, что даже такая мелочь, как зубы, может послужить ключом к выявлению подделки.
Проверьте происхождение видео
Предыдущее руководство GIJN по проверке видеороликов предлагает несколько вариантов исследования любого видео, а не только глубоких фейков. Вот примеры:
-
YouTube Data Viewer или inVid
Программа просмотра данных YouTube (YouTube Data Viewer) покажет вам день и время загрузки клипа, а также изображения, которые YouTube сгенерировал для этого конкретного видео. inVid – еще один ресурс, который работает как с видео, так и с изображениями.
Этот клип, который вроде бы демонстрирует чью-то подъездную дорогу во время урагана Харви, даже содержит в название дату: «27 августа 2017 года». Data Viewer показывает, что видео было загружено 31 августа 2017 года, и если проверить новости, то ураган действительно бушевал в конце августа. Пока что нет ничего, что бы опровергло утверждения пользователя.
Если источник утверждает, что видео показывает события прошлой недели, но оно было загружено на YouTube несколько лет назад, ответ у вас в кармане. Если же нет, переходите к следующему тесту.
-
Обратный поиск изображений
Data Viewer также предоставляет удобные ссылки на инструмент под названием «Обратный поиск изображений» (Reverse Image Search), который ищет в Google изображение, а не текст.
Применение обратного поиска изображений к видео о затоплении приводит нас к новостным статьям в Chicago Tribune и Houston Chronicle, и обе рассказывают о затоплении в Мейерленде. Наше видео соответствует уже двум параметрам. Пока что все хорошо.
-
Гуглите
Это может показаться слишком простым, но начало поиска с самого банального — через Google — может творить чудеса. Как отметил Толер в этой статье, посвященной проверке видео, используя в качестве примера видео, предположительно показывающее колонну военной техники в Литве, поиск в Google терминов «военные учения» и «ночь» вывел бы нас на оригинальное видео, породив сомнения насчет его новизны.
В случае эпизода с ураганом Харви, поиск в Google вариаций «Харви», «затопление», «подъездная дорога», «таймстоп» и «таймлэпс» может выполнить ту же самую роль. Проверка таких видеохранилищ, как YouTube, Vimeo и Gfycat — еще один отличный шаг.
-
Google Street View
Множество глубоких фейков сосредоточены на говорящем человеке, поэтому у них может и не быть отличительного фона. Но фоны и места можно перепроверить с помощью инструмента под названием Google Street View.
Например, тот, кто загрузил кадры с затоплением, утверждает, что находится в «районе Мейерленда», который, как мы знаем из поиска в Google, находится на юго-западе Хьюстона. Открыв Meyerland в Google Maps, вы можете перетащить «пегмана» – маленького оранжевого человечка в правом нижнем углу — чтобы получить представление о местности в масштабе улицы.
В этом случае мы видим широкие улицы со светло-серым тротуаром, ухоженные газоны и узкую полосу травы между тротуаром и дорогой. Еще один момент в пользу загрузившего видео.
Хотя в данном случае Street View, конечно же, не доказывает, что видео является подлинным, мы, по крайней мере, исключили еще один способ доказать его недостоверность. Вы можете провести аналогичную проверку с использованием Google Earth, чтобы понять, является ли регион горным, травянистым, плоским и т. д.
-
Метаданные видео
Возможно, вы уже знакомы с данными EXIF, метаданными в файлах изображений, которые часто раскрывают местоположение, тип камеры и другую информацию. Дэниэл Функе, журналист-фактчекер в Институте Пойнтера, рекомендует загрузить видео на свой компьютер и прогнать его через инструмент под названием Exiftool.
Как в случае со всеми метаданными, вам следует быть предельно осторожными: их могли отредактировать пост фактум или стереть, или это может быть запись другого видео. Но, как и со всеми другими инструментами, мы можем по очереди вычеркивать разные параметры из списка и благодаря этому исключить подделку.
Дополнительные советы по поиску видеороликов: ознакомьтесь с более ранним расширенным руководством GIJN по верификации видеоматериалов и руководством First Draft News.
Cаманта Санн — независимый репортер в Новом Орлеане, штат Луизиана, где она работает в жанре журналистики данных и расследований. Она также преподает цифровые инструменты журналистам по всему миру и издает информационный бюллетень под названием «Инструменты для репортеров».