Кого будут наказывать за использование дипфейков
В России решили не дожидаться первых громких инцидентов и намерены ввести наказание за так называемые дипфейки. Речь, например, о фальшивых видео, сделанных с использованием технологии "дипфейк", когда лицо одного из героев очень качественно заменяют другим и получаются кадры, как человек делает что-то, чего он в реальности не делал никогда. Корреспондент "Известий" Дмитрий Вахницкий узнал, кто может попасть под готовящуюся статью и что ему за это грозит.
Телефонный звонок, на том конце провода родная тетя Александра Кабирова. Женщина взволнованно сообщила, что поцарапала чужой автомобиль, ей нужно срочно выслать 60 тысяч рублей. На самом деле это звонили мошенники. Используя технологию deep fake, они просто изменили речь, подменили голос близкого человека. Вышло максимально похоже.
"Вначале я поверил. Я, конечно, без проблем выслал бы деньги, причем номер карты она готова была прислать, но в какой-то момент я понимаю, что где-то нестыковка, почему не вызвать ГАИ. После того как я сказал, что я вышлю на ее номер карты, она сказала нет, на их карту сразу, причем настойчиво, я сразу понял, что что-то тут не так", – рассказал Александр Кабиров.
С развитием нейросетей, которые и берут на себя всю работу по подмене голоса или даже видеоизображения, у мошенников появился мощный инструмент для обмана жертвы. В Госдуме даже решили внести изменения в Уголовный кодекс – использование технологии deep fake предлагают приравнять к отягчающим обстоятельствам. Тогда преступники получат максимальное наказание, хотя все зависит от обстоятельств.
"Тут важна квалификация самого факта события: если розыгрыш безобидный, не нанес удар по чести и достоинства и деловой репутации человека. Если с помощью данного розыгрыша у граждан не вымогают деньги, не пытаются путем обмана похитить его имущество, приравнять данный дипфейк к уголовно правовому нарушению будет достаточно сложно", – рассказал юрист Никита Кулачкин.
Наши журналисты обратились к специалисту по кибербезопасности, чтобы разобраться, как рождаются дипфейки.
"Самое главное – рот, глаза, нос. Это те части, которые легко определять и которые часто двигаются", – рассказал специалист.
Чаще всего подделывают голос, это проще всего, хотя современная техника позволяет работать и с видео. Это требует больше ресурсов, поэтому для того, чтобы выдать себя за другого человека, нужна подготовка.
"Сейчас, насколько известно, мошенники заранее подготавливают эти видео. Условно говоря, за день снимают разные варианты, как эта история в какую сторону может передвинуться, снимают несколько вариантов видео, все это отдают нейросетке, та уже работает и выдает несколько вариантов", – расcказал специалист по кибербезопасности Роберт Симонян.
Чтобы машина обработала видео, нужно не так много времени – от шести часов, в зависимости от мощность компьютера. Когда происходит контакт с жертвой, мошенник выбирает ту заготовку, которая подходит для конкретного диалога.
– А если в режиме реального времени? Это возможно?
– В режиме реального времени все работает не так хорошо, но ради примера можно такое посмотреть.
Детальная настройка – и наш эксперт превращается в актера Киану Ривза. Модель повторяет за ним все движения, хотя наложение чужого лица при желании нетрудно рассмотреть.
Использование образов известных и уважаемых людей может быть еще одним способом мошенничества, подчеркивают эксперты. Например, злоумышленники могут позвонить по телефону или видеосвязи и от лица публичной персоны предложить сделать пожертвование или что-то купить.
"Изображение аналогов может значительно подорвать доверие к информационной среде. Сейчас фактически реально создавать видеоряд с высказываниями самых различных людей для того, чтобы вводить в заблуждение очень большую аудиторию", – рассказал доцент кафедры политической экономики экономического факультета МГУ Максим Чирков.
Уберечься от мошенников, использующих подмену голоса или лица, достаточно просто, объясняют специалисты. Первое: нужно просто перезвонить тому, от чьего лица просят денег и поинтересоваться, действительно ли нужна помощь. Есть и другие простые проверочные действия.
"Вас сразу должно насторожить, насколько этот человек мог позвонить и занять у вас денег, например, или попросить у вас что-либо вообще. Сразу задавайте вопрос, который известен только вам двоим. Второе: меньше болтайте по телефону с незнакомыми людьми", – посоветовал специалист по кибербезопасности Владимир Белый.
Эксперты в области кибербезопасности в целом поддерживают инициативу депутатов приравнять deep fake к уголовному преступлению. Но призывают в первую очередь дать конкретное определение, что именно входит в это понятие, чтобы в итоге не вышло, что под преследование попадут и мошенники, и те, кто использует эту технологию в развлекательных целях или в киноиндустрии и анимации.