В России появился Кодекс этики искусственного интеллекта
В нашей стране появился первый в истории российский Кодекс этики искусственного интеллекта. Этот свод правил специалисты IT-сферы уже назвали нравственными нормами высоких технологий.
Вот черная иномарка подъезжает к автобусной остановке, из нее выходят двое, которые пытаются насильно увезти девушку. Все происходящее фиксирует камера видеонаблюдения. Она же и предотвратила преступление, благодаря специальной программе.
"Обычные камеры видеонаблюдения, которые могут хранить запись, которые можно смотреть в реальном времени, только смотрят в них не люди, а специальные алгоритмы. Эти алгоритмы понимают, что происходит на камерах, какие появляются люди, какие происходят события, распознают автомобили и так далее и уже в агрегированном виде показывают человеку, оператору", - объяснил директор по стратегии компании разработчика Сергей Мартынов.
В случае опасности включается тревога. Система взаимодействует со всеми камерами в городе - от тех, что установлены на мачтах городского освещения, до тех, которые вмонтированы в двери подъездов. Искусственный интеллект буквально следит за преступниками. При этом компьютерный разум может не только фиксировать само преступление, робот своими действиями способен даже спасти человека в критической ситуации.
По сути, машина сейчас сама определяет, что хорошо, а что плохо. Например, эта система установлена в подъезде и может определить, что человек стоит, сидит или, например, лежит и его избивают. При этом, не дожидаясь, пока очевидцы вызовут экстренные службы, может сама набрать полицию и вызвать скорую помощь.
Но порой бывает и так, что и компьютерный разум до конца не может разобраться в ситуации. Принципы, которыми руководствуется робот, не всегда бывают понятны человеку. На этих кадрах задержание ученого из Подмосковья. Система распознавания лиц опознала молодого человека, как преступника, находящегося в розыске.
"Одна фотография, это моя фотка, а вторая - это некого человека, примерно в такой толстовке, как у меня, и он был тоже в очках. Они сказали: ну блин, вылитая копия, 70% совпадения показал компьютер", - отметил житель Одинцова Федор Ермошин.
Из-за таких вот ситуаций и возникают вопросы к поведению роботов, которым люди стали всецело доверять.
"Люди глазам своим не доверяют, а доверяют системе искусственного интеллекта, который имеет, как известно, ошибки первого и второго рода, любая система без исключения", - сказала Наталья Касперская, президент группы компаний в сфере информационной безопасности.
Чтобы восстания машин в РФ не случилось и всех ошибочно не обвинили в преступлениях, которые они не совершали, в России приняли свод правил для искусственного интеллекта. В отличие от трех законов Азимова, роботы должны в первую очередь охранять персональные данные людей, чтобы они не попали в чужие руки и не были ошибочно использованы. А помогать искусственному разуму в этом должен все равно человек.
"Мы никогда не оставим человека наедине с искусственным интеллектом, у него всегда будет возможность обратиться к другому человеку, который понимает, как это работает, и может сам оспорить эту историю", - отметил президент телекоммуникационной компании Вячеслав Николаев.
При этом по правилам документа у человека всегда должно быть право отмены решений, которые принял искусственный разум.