Version: 1.0.2

"Видеозвонок от мэра Москвы": как мошенники обманули пенсионерку на 6 млн рублей

Пенсионерка потеряла более 6 млн рублей после разговора с лжемэром

Пенсионерка из Подмосковья потеряла более шести миллионов рублей после разговора с фейковым мэром столицы. К разговорам с градоначальником ей не привыкать: за годы работы в госструктурах такого уровня переговоры стали рутиной. Распознать дипфейк пострадавшая не смогла, хотя заметить вмешательство искусственного интеллекта вполне реально. Как разоблачить мошенников до того, как они начнут действовать, рассказал корреспондент Павел Пономарев – в сюжете РЕН ТВ.

Вряд ли Алла Тужилкина ожидала, что видеозвонок якобы от мэра Москвы окажется самым дорогим в ее жизни. Мошенники всего за пару недель выудили из кармана пенсионерки больше шести миллионов рублей. А началось все с обычного письма.

Оно выглядело весьма правдоподобно, такие Алла Анатольевна получала не раз. Много лет она проработала в госструктурах, поэтому внеплановому общению с Сергеем Собяниным была только рада. Дальше события развивались, как в блокбастере.

Сначала к разговору подключили якобы заместителя министра внутренних дел, сотрудников ФСБ, банка, налоговой. Пенсионерку обвиняли в том, что через ее счета провели 75 миллионов рублей на поддержку украинских боевиков, и потребовали "выкуп", чтобы избавиться от уголовной статьи.

"Искренне верила в то, что они говорили. Я не понимаю даже почему. Настолько они меня... Во-первых, меня убедило, что это Собянин. Я не думала, что это может быть искусственный интеллект, который может настолько задурманить мозги", – рассказала пострадавшая.

Но поняла это Алла Тужилкина слишком поздно. Уже когда отдала курьерам все свои сбережения, продала машину по дешевке и взяла несколько миллионов рублей в долг у друзей. Лишь после очередного указания перевести еще 500 тысяч догадалась, что столкнулась с так называемым дипфейком. По сути, тысячей оживленных фотографий, которые способны двигаться и разговаривать, как реальный человек.

Нейросети сканируют лицо, определяют ключевые точки: глаза, брови и губы. Если раньше дипфейки генерировались с очевидными "побочками", например, в виде лишних конечностей, то со временем искусственный интеллект научился копировать людей до мелочей, что только на руку мошенникам. Они подделывают голоса, прикидываются политиками, знаменитостями, друзьями и родственниками своих жертв.

Специалисты уверены, что через пару лет такой "сгенерированный мультик" будет не отличить от реальности, но пока у искусственного интеллекта все еще есть слабые места.

"Мимику смотреть надо: губы, глаза. Когда он шевелится, что-нибудь меняется ли на видео. Какие-нибудь пиксели появляются. Фон опять же, все надо внимательно смотреть", – рассказал руководитель IT-компании , эксперт в области информационных технологий Лаша Боратиони.

ИИ-технологии развиваются стремительно, а потому и способов мошенничества у аферистов с каждым днем все больше. Один из них – замена голоса.

Сегодня изменить тембр голоса проще простого, для этого существуют специальные программы. Достаточно сдвинуть тональность вверх, и голос превратился в высокий, почти детский. Но если опустить настройки, то он превратится в бас. А при желании, можно даже скопировать манеру речи знаменитости.

Пока искусственный интеллект лишь повторяет, а не разрывает шаблоны. Но уже сейчас доверять глазам и ушам становится сложнее.

РЕН ТВ в мессенджере МАХ – главный по происшествиям

"Видеозвонок с мэром Москвы": как мошенники обманули пенсионерку на 6 млн рублей