Version: 0.1.0

Осторожно, дипфейки: как один видеоролик способен обрушить экономику

Подмену настоящих людей на цифровые клоны не так просто распознать.

Сколько лайков под фотографиями может собрать симпатичная японка на мощном спортбайке? Уж точно больше, чем 50-летний японец. Поэтому мужчина полгода выдавал себя за девушку, лицо которой создано нейросетью. Как и у этой корейской певицы. Поп-дива – виртуальная. Существует благодаря той же технологии, которая позволяет "оживлять" своих давно ушедших родственников. Крайне реалистично они двигают глазами и улыбаются.

"Возможности искусственного интеллекта позволяют нам загружать неподвижные изображения ваших родственников, и они моментально обретают цвет и начинают двигаться", - говорит Рафи Мендельсон, PR-директор компании MyHeritage.

Создатели сервиса сначала сами себя сняли на видео, а затем научили машины менять их лица на лица с фотографий. И это, пожалуй, самое безобидное применение технологии "дипфейк". Но все идет к тому, что скоро отличить правду от вымысла будет невозможно. В основе дипфейка – две нейронных сети.

"Одна часть нейросети обучается на фотографиях – большом количестве фотографий, а другая – создает лицо искусственно, и все доводится до того момента, пока одна нейросетка не начнет ошибаться, принимая лицо за реальность", - объяснил директор по продуктам компании-разработчика алгоритмов анализа видео Заур Абуталимов.

На базе сложного алгоритма созданы десятки приложений. Пользователи развлекаются, меняя лица любимых киногероев. Тут подделка видна сразу. А вот Тома Круза, играющего в гольф и жующего леденец, не отличить от настоящего.

"Я работал с актером, который пародирует Тома Круза. Мы сделали эти видео ради шутки и вывесили в TikTok. За два дня - 48 тысяч подписчиков и почти 3 миллиона просмотров", - рассказал Крис Уме, создатель дипфейк-видео с Томом Крузом.

Любую кинозвезду теперь можно просто нарисовать. В челябинской студии как раз оказывают такие услуги. 

"Наш основной целевой клиент - это кинокомпании, рекламные агентства, бренды, которые хотят воссоздать какого-то персонажа в своем контенте. Способность генерировать того или иного персонажа, видео напрямую, не приглашая его к съемкам, – это замечательная потенциальная возможность для бизнеса привлечь того или иного актера", - считает Мария Чмир, генеральный директор и сооснователь компании Deep Cake.

А если вложить в уста знаменитому актеру провокационные заявления, можно легко разрушить его карьеру. В современном Голливуде это проще простого.

Вот представьте, выходит на сцену Ди Каприо и со своим фирменным прищуром говорит: "В моем трейлере побывало больше молодых актрис, чем на кожаном диване в кабинете Харви Вайнштейна". И все, репутации голливудской звезды конец.

Но первыми жертвами дипфейков стали знаменитости-женщины. В Сети множество порнороликов с участием звезд, которые ни в чем таком никогда не снимались. Видимо, из кинопроизводства вообще скоро уйдет такое понятие, как съемочный процесс: в эпоху постправды останется только постпродакшен.

"В больших фильмах почти в каждом кадре есть компьютерная графика, от полностью нарисованных кадров до добавления каких-то элементов. Фильмы типа "Гравитации" можно назвать анимационным кино", - объясняет Арман Яхин, генеральный директор студии компьютерной графики.

И если раньше такую графику рисовали исключительно профессионалы, то сегодня инструменты для замены лиц есть в любом смартфоне. А значит, не только кино, но и любое видео можно искусно отредактировать.

Новые технологии быстро освоили мошенники. Аналитики совместно с институтом ООН по вопросам преступности и правосудия и Европолом подготовили доклад "Злонамеренное использование и злоупотребление искусственным интеллектом". И там дипфейки – одна из главных угроз. Самая распространенная схема – шантаж и угроза опубликовать некий непристойный компромат. В главной роли – ваш цифровой двойник.

"Если вы активно делитесь вашим портретами в социальных сетях, то не удивляйтесь, что через какое-то время появится видеоролик с вашим участием, который вы не снимали", - говорит Михаил Кондрашин, технический директор аналитической компании.

Предтеча видеодипфейков – алгоритмы распознавания лиц. Они тоже шагнули далеко вперед. Технология глубокого анализа видеоданных уже используется в бизнесе. В магазинах висят камеры, которые не только узнают покупателей в лицо, но и считывают эмоции. Чтобы продавцы знали, нравится нам товар или цена на него или нет.

С помощью своих биометрических данных - лица и голоса - уже сейчас можно снимать деньги в банках, расплачиваться за товары в магазинах, брать кредиты. Но что если лицо будет поддельное?

"Если мы по фотографиям восстанавливаем трехмерную модель лица, мы можем синтезировать изображение. Изображение посылается в банк, таким образом подтверждается операция. А дипфейк позволяет это делать без участия человека", - рассказал директор по методологии и стандартизации Positive technologies Дмитрий Кузнецов.

А еще мошенники могут сыграть по-крупному: заранее скупить акции какой-нибудь крупной компании и сделать сообщение от лица ее директора, которое повлияет на их стоимость.

Мировую экономику можно обрушить одним видеороликом. На экране появляется Илон Макс и заявляет: концепция электромобилей нежизнеспособна. Будем ездить на бензине. А еще – я перевожу все свои активы в китайские юани. Следите  за движениями биржевых котировок.

Но главное - теперь в уста мировым лидерам можно вложить любые заявления, которые будут развязывать войны и разрушать экономики.

К трибуне с президентской печатью выходит якобы глава Соединенных Штатов Америки. И признается: коронавирусная инфекция разработана в секретной американской лаборатории. Ах да. И еще мы фальсифицировали выборы. На самом деле выиграл Трамп. Технология дипфейк – в действии. И, как следствие, масштабный политический кризис.

Государственные деятели определенно главная цель дипфейк-террористов. Во-первых, их относительно просто подделать: есть терабайты качественных видеозаписей, откуда нейросети могут взять изображение и голос. Во-вторых, именно политиков имеет смысл шантажировать сгенерированным компроматом. И, в-третьих, их слова могут вызвать эффект разорвавшейся бомбы – в буквальном смысле слова.

"Такого рода фейк, вызвать и нанесение ракетного удара по суверенной стране, вот так, как, допустим, по результатам тех роликов, которые инсценировали усилиями команды "Белые каски", точно так же можно и уже в домашних условиях", - говорит Андрей Кошкин, заведующий кафедрой социологии и политологии РЭУ им. Плеханова.

А главное, отличить дипфейк от оригинального видео что на глаз, что с помощью специальных программ – с каждым днем все сложнее.

"Как только появятся инструменты по распознаванию дипфейков, тут же дипфейки сделают качественный скачок вперед. Они закроют те уязвимости, за которые цепляются алгоритмы", - считает Станислав Ашманов, предприниматель, специалист по глубоким нейронным сетям и машинному обучению.

"Самый простой момент, как можно распознать фейковую информацию, в том числе видео- или аудиодипфейк, – это понять, адекватен ли тот месседж, который транслирует этот объект", - отметил генеральный директор АНО "Цифровые платформы" Арсений Шельцин.

Спасение от искусственного интеллекта, оказавшегося не в тех руках, – свой собственный ясный разум и критическое мышление, которые по мере погружения в дипфейковый новый мир, где нельзя верить собственным глазам, сохранять все сложнее. 

Осторожно, дипфейки: как один видеоролик способен обрушить экономику