Под чужим лицом: в мире участились преступления с применением дипфейков
Искусственный интеллект все чаще становится участником преступлений по всему миру – уже сейчас он обманывает миллионы людей. Особенно опасной в этом плане стала технология дипфейк – она может сгенерировать видео с лицом и голосом любого человека, и часто это делается совсем не ради веселья. В некоторых странах создание таких роликов уже запретили, то же самое обсуждают и в России, но параллельно работают и над другими решениями. Подробнее – в сюжете корреспондента Александра Якименко.
Лидером просмотров в китайском сегменте интернета стало интервью певицы Тейлор Свифт на китайском языке. Но самая популярная в мире исполнительница кантри даже и не думала учить китайский язык. И ее голос, и движения губ смоделированы искусственным интеллектом. Создавать подобные ролики в Китае вообще-то запрещено, но этот создан в США, и на него ограничения до сих пор не распространяются. Хотя очень многим в стране хотелось бы подобное запретить, как это первыми в мире сделали в Индии.
В начале недели в местных соцсетях завирусилось видео якобы с актрисой Рашмики Манданны. На самом деле, на видео – британка индийского происхождения, которой сменили лицо на внешность актрисы. Поклонники Манданны были оскорблены, и в правительство поступило несколько десятков тысяч просьб как-то защитить и оградить ее от подобных издевательств. В ответ власти пошли на решительные шаги.
"Теперь те, кто создают дипфейки с использованием персональных данных, рискуют сесть в тюрьму на срок до трех лет или заплатить внушительный штраф. Социальные сети этим же указом обязали удалять сгенерированные видео, на которые поступили жалобы, в течение суток после того, как эти жалобы были получены", – заявила юрист Шармила Бхоумик.
Создание дипфейков в Индии вообще сейчас поставлено на широкую ногу. Как показывает практика, технологиями стали в первую очередь пользоваться мошенники, которые если не воруют данные и деньги, то, по крайней мере, заметно портят репутацию. В США голливудскому актеру Тому Хэнксу пришлось оправдываться, что он не рекламировал стоматологические клиники.
Впрочем, технологии развиваются стремительно. Настолько, что даже специалисты не уверены, что дипфейк можно будет отличить от обычного видео.
"Существует несколько инструментов, которые помогают отследить синтезированный с помощью искусственного интеллекта контент, но все они не слишком надежны. Сейчас на базе технологий Google в США запускают новую программу, масштабнее предыдущих. Но я уверена, что и она не будет качественна. Это слишком сложно. Пока лучшее, что могу посоветовать – это развивать собственную цифровую грамотность, чтобы иметь самостоятельно выявлять дипфейки", – сказала преподаватель коммуникаций в университете Вебстера Джули Смит.
В России за дипфейки тоже предлагают ввести уголовное наказание. Сейчас оно предусмотрено только за само преступление, в котором дипфейк рассматривается как орудие. Но юристы уверяют: этого мало и законодательство нужно менять.
"Если благодаря дипфейкам происходит преступление – хищение либо иные компьютерные преступления, тогда ответственность идет за совершение преступления", – заявил вице-президент Гильдии российских адвокатов Евгений Корчаго.
Дипфейки сейчас используются также и для того, чтобы заставить или уговорить людей пойти на преступления. Но цель у всех этих использований новых технологий – одна.
"По сути, это сбор денег, основное, на что злоумышленники делают упор, – использовать известного персонажа либо человека, различные соцсети с аккаунтами звезд, политиков, вообще известных людей. За счет этого мошенники могут проводить свои операции в интернете. Черный пиар – это тоже возможно", – говорит эксперт по кибербезопасности Александр Дворянский.
При этом уже сейчас с дипфейками пытаются бороться ученые. В Донском гостехе, например, создали программу, которая сама выявляет поддельные видео. И останавливаться на достигнутом не собираются, потому что и развитие технологий дипфейков не стоит на месте.