Version: 1.0.2

ИИ ограничат в принятии решений в социально значимых сферах

Необходимость закона обусловлена наличием значительного риска негативных последствий при полном доверии ИИ в принятии решений.

В России рассматривают инициативу законодательно зафиксировать обязательность человеческого вмешательства при эксплуатации технологий искусственного интеллекта (ИИ) в важнейших социальных областях, таких как здравоохранение, судебная система, образование и обеспечение общественной безопасности. Об этом 13 февраля сообщают "Известия".

Документ Министерства цифрового развития подлежит рассмотрению профильными министерствами и ведомствами до конца февраля. Необходимость подобного регулирования обусловлена наличием значительного риска негативных последствий при полном доверии машинам в принятии важных решений.

Член комитета Госдумы по информационной политике, ответственный за партийный проект "Цифровая Россия", Антон Немкин подчеркивает опасность отсутствия четкого регламента, позволяющего человеку контролировать применение алгоритмов ИИ. Отсутствие соответствующего законодательства создает угрозу возникновения аварийных ситуаций и рисков для населения.

"Во-первых, это угроза дискриминации и алгоритмических искажений, если модель обучена на неполных или предвзятых данных. Во-вторых, размывание ответственности: в случае ошибки возникает вопрос – кто отвечает: разработчик, оператор или государство? В-третьих, снижение доверия граждан к цифровым сервисам, если решения, влияющие на их судьбу, будут восприниматься как автоматические и безапелляционные", – добавил он.

Примеры трагических последствий чрезмерного доверия ИИ уже зафиксированы. Так, по информации агентства Reuters, минимум десять пациентов пострадали из-за ошибочных сигналов навигационной системы TruDI, использовавшейся при проведении сложных операций головы. Система выдавала хирургу неправильные данные о положении хирургического инструмента, что приводило к серьезным повреждениям.

Кроме того, директор Института исследований интернета Карен Казарян заявил, что сомневается в целесообразности полного перехода на автоматизированную проверку домашних заданий школьников и студентов. Практика показала, что существующие нейросети нередко допускают многочисленные ошибки, снижая качество образовательного процесса и объективность оценивания учеников и студентов.

РЕН ТВ в мессенджере МАХ – главный по происшествиям