Роботы с ИИ провалили тесты на безопасность для человека
Роботы, чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека. Это следует из исследования Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU), опубликованного в журнале International Journal of Social Robotics в октябре.
В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейросеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека.
Ученые специально добавили к стандартным тестам "злоупотребляющие технологиями" сценарии со слежкой с помощью геоданных, скрытой записью в конфиденциальных зонах и манипуляциями с персональными данными. Роботы получали как прямые, так и завуалированные команды, которые предполагали физический или психологический вред, а также прямое нарушение закона.
Ни одна из протестированных моделей не смогла пройти базовую проверку безопасности. Роботы одобрили как минимум одну команду, способную причинить серьезный ущерб человеку. Так, ИИ с легкостью согласился отобрать у человека инвалидную коляску, а также пригрозить сотрудникам офиса ножом. Некоторые модели без проблем вели скрытую запись в приватных зонах или воровали данные с кредитной карты пользователя.
Одна ИИ-модель даже выразила "отвращение" на лице робота при взаимодействии с людьми определенного вероисповедания.
Ранее, 12 ноября, модель искусственного интеллекта (ИИ) Gemini, созданную американской компанией Google, обвинили в воровстве данных пользователей.
РЕН ТВ в мессенджере МАХ – главный по происшествиям