Version: 1.0.2

Аферисты прикидываются нейросетями и похищают данные под видом диагнозов

Мошенники могут отвечать вместо ИИ на медицинские вопросы.

Получение медицинских консультаций через искусственный интеллект несет в себе ряд рисков, заявили исследователи Оксфордского института интернета. В том числе речь идет о противоречивых ответах, в которых полезные рекомендации идут вперемешку с опасной информацией. К подобной схеме обмана россиян также прибегают и аферисты. Об этом узнали "Известия".

"В спорных ситуациях и при несовершенных алгоритмах существует риск, что мошенники воспользуются этой неразберихой для получения доступа к конфиденциальной информации, которую можно использовать или продать на теневом рынке", – рассказала GR-директор ИБ-компании "Код безопасности" Александра Шмигирилова.

Люди подвержены влиянию искусственного интеллекта из-за отсутствия эмоций у машины, что означает меньшую вероятность ошибки по мнению россиян. Подобное позволяет мошенникам выдавать себя за искусственный интеллект и получать ответы на интересующие вопросы гораздо проще.

При этом набирающие популярность ИИ чат-боты в вопросах медицины могут побудить аферистов распространять приложения на основе нейросетей, которые якобы обучены определять диагноз и консультировать людей. В действительности подобные приложения могут оказаться прикрытием для сбора данных и заражения устройства вирусами.

Ранее стало известно, что мошенники притворяются "покупателями" и предлагают помощь в оплате товара через "безопасный платеж на защищенном сайте". Таким образом аферисты получают данные от банковских карт жертвы и похищают средства оттуда.