Госдума хочет защитить голос человека при его генерации ИИ
Россиян начнут по-новому защищать от дипфейков, одна из таких мер коснется голоса. Его хотят сделать объектом неимущественного права. То есть, использовать записи с голосом, в том числе сгенерированные нейросетью, можно будет только с разрешения его владельца. Как будет работать новая мера и насколько она поможет избежать уловок злоумышленников, разбиралась Марина Кравцова.
Искусственные люди – уже не выдумка фантастов, а суровая реальность соцсетей.
Анастасия откликнулась на призыв по голосу – подруги, на самом деле – мошенников, и перевела 40 тысяч рублей. На следующий день девушка узнала, аккаунт подруги взломали, а эти сообщения сгенерированы нейросетью.
"Голосовые сообщения вызывают доверие, когда говорят: "Настя, чтоб ты не сомневалась". Диалог, наверное, перечитывали и смотрели: в каких отношениях мы находимся, и, соответственно, на этом выстроилась дальнейшая коммуникация", – рассказала Анастасия Богданова.
Сгенерировать голос подруги, родственника, начальника уже не составляет большого труда и не требует знаний в программировании.
"Все зависит от объема информации, которая есть у мошенников: насколько много примеров, насколько хорошо они могут обучить искусственный интеллект, который вас подделывает", – заявил руководитель Международного центра цифровой криминалистики СПБ ФИЦ РАН Андрей Чечулин.
Исходным материалом для подделки становятся голосовые сообщения в мессенджерах, видео, которые люди выкладывают в соцсети, и даже записи телефонных разговоров.
Не самую качественную, но похожую подделку сегодня может сделать любой пользователь Интернета всего за несколько минут. В сети множество программ, которые генерируют нужное сообщение голосом нужного человека и даже переводят на другой язык. Достаточно загрузить аудиофайл продолжительностью менее минуты. С длинными предложениями программы справляются так себе, но с короткой фразой справилась бы программа на "отлично".
Если раньше дипфейк или искусственно созданный голос можно было отличить по заторможенности и механической манере, то сегодня нейросети создают копии даже реалистичней настоящих видеозаписей.
"Мы можем использовать генеративные нейросети, чтобы они создали видео. Натренировать модель на определенном лице и после этого устроить ему и фотосессию и киносъемку, то есть это сейчас все возможно", – подчеркнул киберэксперт Никита Починок.
Технологиями искусственного интеллекта орудуют не только мошенники, но и информационные диверсанты: в пабликах Курской области распространяли фейковый ролик со сгенерированным нейросетью голосом официального представителя МВД Ирины Волк, подделывали выступление официального представителя МИД Марии Захаровой, распространяли в соцсетях лживый ролик с губернатором Севастополя, где он якобы призывает горожан выходить на митинг.
Голос украинские хакеры подделали идеально, но сдали себя, назвав законодательное собрание города на украинский манер горсоветом.
Отвоевывать свой тембр у искусственного интеллекта приходится западным звездам. Скарлетт Йоханссон потребовала изъять записи, похожего с ее звучанием голоса, которым заговорил чат американской нейросети. А супруги – актеры дубляжа требуют от американского стартапа пять миллионов долларов за несогласованную компьютерную озвучку видеороликов их голосами.
"Я был в бешенстве. Не только из-за последствий для моей карьеры, но и из-за того, что эти слова я не соглашался произносить. Это оскорбляет меня, мою индивидуальность. Я не давал согласия, не было никакой компенсации. И получается, я больше не хозяин своего голоса", – заявил актер озвучивания Пол Скай Лерман.
В России решили произвол искусственного интеллекта ограничить законом. В частности голос человека защитят как объект неимущественного права и запретят использовать его, даже сгенерированного нейросетью, без согласия обладателя.
"Ответственность наступит минимальная в виде штрафа – пять тысяч рублей, максимальная ответственность будет в виде лишения свободы до шести лет, будет наказание зависеть от тяжести правонарушения", – подчеркнула юрист Алла Георгиева.
Законопроект внесен на рассмотрение в Госдуму. Новые нормы должны остановить шутников от создания фейковых видео, а для преступников использование дипфейков станет отягчающим обстоятельством.