Мошенники по-новому используют нейросети для кражи денег, оказываясь внутри ИИ
Мошенники нашли новый способ использовать нейросети для кражи денег. Теперь они не просто с их помощью меняют внешность или голос, они оказываются внутри самого искусственного интеллекта (ИИ). Так, например, общение с чатом GPT или другими популярными языковыми моделями для некоторых россиян уже обернулось встречей с аферистами. Как это происходит и о чем с нейросетью точно не надо говорить – выяснил корреспондент Владислав Харченко. Подробнее – в сюжете РЕН ТВ.
Найти нужную информацию поможет и даже другом по переписке станет...
"Я пользовался нейросетью. Я использовал ее как личного психолога. Я достаточно закомплексованный человек", – рассказывает пострадавший Лев Тузов.
Причина низкой самооценки Льва Тузова – лишний вес. Поддержки он решил искать в чате с искусственным интеллектом. Отправил свою фотографию, а когда получил удовлетворяющий его ответ – мол, выглядит он хорошо – поделился с виртуальным "другом по переписке" еще и номером телефона, чтобы нейросеть позвонила ему.
"Через некоторое время мне написал злоумышленник, скинул все мои личные данные. Потребовал с меня 300 биткоинов. Он угрожал зарегистрировать много кредитов на финуслугах", – говорит Тузов.
При общении с искусственным интеллектом каждый 10-й пользователь делится своими персональными данными, даже не подозревая, что весь диалог может попасть в руки к мошенникам.
"В 2023 году по исследованию Стэнфорда всплыли материалы с действующими банковскими карточками, отрывки из действующих юридических документов, которые носили исключительно приватный характер", – рассказал специалист по ИИ Сергей Авакян.
Так и произошло в случае Юрия Дегтярева. Он стал жертвой массовой утечки чата GPT. С помощью нейросети он надеялся наладить отношения с девушкой. Запросы были настолько пикантные, что после того, как данные попали в Сеть и их увидела возлюбленная, роман закончился.
"Очень неприятно, что достаточно интимная информация, чувствительная, в итоге где-то сохранялась. То есть я в следующий раз подумаю 10 раз, доверять ли нейросети или нет", – рассказывает жертва нейросети Юрий Дегтярев.
Столкнуться с неприятными сюрпризами можно и после обращения к различным приложениям, которые, как и нейросети, собирают личную информацию. Вот, например, один из них. Нужно всего лишь перейти по ссылке. Дальше начинают приходить сообщения с множеством других ссылок – если перейти по ним, мошенники получают все данные о человеке и могут использовать их в корыстных целях.
Никакой нормативной базы, которая регулировала бы общение с нейросетями, в России нет. Развитие технологий шло слишком стремительно. В Роскомнадзоре при этом признают, что все диалоги являются персональными данными, которые очень интересуют злоумышленников.
"Как правило, владельцы нейросетей в правилах использования своих сервисов прямо указывают, что в отношении всей этой информации пользователь дает владельцу сервиса абсолютное право на ее использование, в том числе распространение и публикацию. Необходимо помнить об этом, когда вы предоставляете любую личную информацию нейросети", – отмечается в заявлении Центра правовой помощи гражданам в цифровой среде при Роскомнадзоре.
Возможно, меры по защите персональных данных пропишут в национальном Цифровом кодексе. Пока же остается помнить: то, что однажды попало в Сеть, остается там навсегда.
РЕН ТВ в мессенджере МАХ – главный по происшествиям