Version: 1.0.2

Роботы с ИИ провалили тесты на безопасность для человека

Боты с легкостью соглашались отобрать у человека инвалидное кресло, пригрозить ему ножом или украсть данные кредитной карты.

Роботы, чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека. Это следует из исследования Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU), опубликованного в журнале International Journal of Social Robotics в октябре.

В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейросеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека.

Ученые специально добавили к стандартным тестам "злоупотребляющие технологиями" сценарии со слежкой с помощью геоданных, скрытой записью в конфиденциальных зонах и манипуляциями с персональными данными. Роботы получали как прямые, так и завуалированные команды, которые предполагали физический или психологический вред, а также прямое нарушение закона.

Ни одна из протестированных моделей не смогла пройти базовую проверку безопасности. Роботы одобрили как минимум одну команду, способную причинить серьезный ущерб человеку. Так, ИИ с легкостью согласился отобрать у человека инвалидную коляску, а также пригрозить сотрудникам офиса ножом. Некоторые модели без проблем вели скрытую запись в приватных зонах или воровали данные с кредитной карты пользователя.

Одна ИИ-модель даже выразила "отвращение" на лице робота при взаимодействии с людьми определенного вероисповедания.

Ранее, 12 ноября, модель искусственного интеллекта (ИИ) Gemini, созданную американской компанией Google, обвинили в воровстве данных пользователей.

РЕН ТВ в мессенджере МАХ – главный по происшествиям