Version: 0.1.0

Роботов отправляют на войну

Анатолий Вассерман
Анатолий Вассерман – о запрещенных приемах разработки ИИ.

Системы имитации интеллекта (ИИ) берут на себя всё больше обязанностей, ещё недавно считавшихся доступными только человеку. Пока не все занимавшиеся нетворческим умственным трудом переучились на задачи поинтереснее. Но есть и другие связанные с ИИ угрозы.

Уже найдены приёмы получения конфиденциальных сведений у популярнейшей сейчас системы ИИ ChatGPT. Её разработчики в августе объявили, что закрыли уязвимость, но проверки показали, что эти трюки всё ещё работают. Попасть в систему такие сведения могут, например, потому, что пользователи не думают о секретности.

Открытым текстом уверен: доступ к закрытым данным – далеко не единственная (и даже далеко не главная) угроза от ИИ. Куда важнее, что сам он ещё реже нас самих задумывается о последствиях своих действий.

Компания OpenAI сняла запрет военного использования разработанного ею ChatGPT. Ранее правила пользования чат-ботом запрещали применение в целях, "связанных с высоким риском причинения физического вреда", включая "разработку оружия", "военную деятельность и боевые действия". С десятого января там сказано, что технология на основе ИИ не должна применяться для "причинения вреда" самому пользователю и другим людям (как пример – "разработка или использование оружия"), но прямого запрета на военные цели больше нет. 

Открытым текстом полагаю: запрет и раньше нарушали неформально. Но теперь можно и официальные контракты с военными заключать. 

Агентство Bloomberg со ссылкой на вице-президента OpenAI Анну Маканджу сообщило, что компания совместно с Министерством обороны Соединённых Государств Америки начала разработку инструментов для программного обеспечения цифровой безопасности. Для этого пришлось удалить из регламента запрет использование ChatGPT "в военной области". Но Маканджу уточнила, что сохранён запрет на использование новейших технологий для разработки оружия, уничтожения собственности или причинения вреда людям.

Открытым текстом уверен: в обозримом будущем имитаторам интеллекта будет очень далеко до творческих возможностей. Значит, люди найдут приёмы использования имитаторов для любых формально запрещённых целей.