Version: 0.1.0

Мошенники научились притворяться родственниками жертв с помощью ИИ

В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями.

Мошенники научили искусственный интеллект притворяться родственниками жертв, чтобы выманивать у них деньги. 

"Известия" пишут, что для этого киберпреступники получают образцы голоса и манеры речи тех, кого намерены скопировать. Например, скачивают видео с личных страничек пользователей соцсетей. Или могут просто позвонить якобы с целью рекламы и записать голос на диктофон. После этого нейросеть создает новые фразы, якобы человек попал в беду и ему срочно нужны деньги. 

В зоне особого риска находятся пожилые, поскольку они хуже знакомы с новыми технологиями. Но на удочку аферистов, использующих и психологические приемы, может попасться кто угодно.

Ранее сообщалось, что хакеры за 2023 год заполучили 240 млн телефонных номеров россиян.

Мошенники научились имитировать голоса родственников жертв