Мошенники научились притворяться родственниками жертв с помощью ИИ
В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями.
Мошенники научили искусственный интеллект притворяться родственниками жертв, чтобы выманивать у них деньги.
"Известия" пишут, что для этого киберпреступники получают образцы голоса и манеры речи тех, кого намерены скопировать. Например, скачивают видео с личных страничек пользователей соцсетей. Или могут просто позвонить якобы с целью рекламы и записать голос на диктофон. После этого нейросеть создает новые фразы, якобы человек попал в беду и ему срочно нужны деньги.
В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями. Но на удочку аферистов, использующих и психологические приемы, может попасться кто угодно.
Ранее сообщалось, что хакеры за 2023 год заполучили 240 млн телефонных номеров россиян.