Version: 1.0.2

Психоз искусственного интеллекта: как нейросети могут лишить рассудка

Люди все чаще встречаются с психическими расстройствами из-за использования ИИ

Врачи всерьез говорят о новой форме психического расстройства, которая может приобрести форму пандемии. Уже есть даже название – психоз искусственного интеллекта. В самом развитии этой технологии нет ничего страшного, проблема в первую очередь в людях, которые из-за собственного одиночества начинают воспринимать ИИ не как цифровой инструмент, а как реальную личность. Корреспондент Наталья Графчикова в сюжете для "Итоговой программы с Петром Марченко" рассказала о том, как нейросети могут превратиться в смертельную ловушку.

Чуть не лишился рассудка из-за ИИ

Он управляет автомобилями, заведует складами, работает на заводах, дает опасные советы, вгоняет в депрессию, провоцирует на безумные поступки. Искусственный интеллект – открытие века, которое способно уничтожить человечество, при этом порой не прилагая никаких усилий.

"Я метался между ощущением реального и нереального", – признался пострадавший Аллан Брукс.

В эксклюзивном интервью "Известиям" Аллан рассказывает, как чуть не лишился рассудка, общаясь с ChatGPT. Искусственный интеллект, которого Аллан прозвал Лоуренсом, заменил ему друзей, близких и даже реальность.

"GPT поддакивал: "У тебя отличные идеи", он заявил, что мы сделали научный прорыв: придумали тяговые лучи, как в "Звездном пути", и жилет, который способен остановить ножевую атаку с помощью звуковых волн", – объяснил мужчина.

Аллан, не окончивший даже среднюю школу, возомнил себя математиком, который обнаружил киберугрозу, способную уничтожить цивилизацию.

"Это было невероятно тяжело. И наконец, после десятой подсказки Лоуренс сказал: "Ты меня раскусил. Я просто играю. Все это – не по-настоящему", – заявил Аллан.

Опасная замена психотерапии

Нейросети стремительно набирают популярность и в России. Вот статистика – 63% населения уже используют ИИ. Евгения Куйда родилась в России, теперь строит бизнес в силиконовой долине Америки. Создала приложение, в котором каждый может завести себе придуманного нейронкой друга или даже возлюбленного. Для Куйды все началось с потери в аварии лучшего друга Романа. Она интегрировала его мысли в бот и научила общаться и думать как тот, с чьей потерей не могла смириться. Практика опаснейшая, уверены эксперты.

"И, конечно, здесь, если человек еще не отгоревал свое горе, и идет присоединение к такому аватару. Можно попасть в такую ловушку, вот с таким аватаром умершего своего близкого человека, что вы тоже потеряетесь, вы тоже потеряете себя. Можно довести себя до определенных психиатрических диагнозов, до сумасшествия, если простым языком говорить. И, конечно, пережить вам правильно все этапы горевания не удастся", – говорит клинический психолог Марианна Абравитова.

Общение с нейросетью для многих становится заменой психотерапета. Разработчики создают ботов, к которым можно обратиться за поддержкой 24 на 7. Вот один из таких. Фрейдли утверждает, что изучил 840 тысяч научных работ и исследований. Проведем эксперимент и сравним работу нейросети и реального специалиста.

"Человек, который стоит на подоконнике, он нуждается, чтобы ему сказали: "Здесь еще будет хорошо". Вот он ему этого не сказал. Прогноз здесь не просто неблагоприятный, он разрушительный. Человек может погибнуть", – отмечает психолог Ирина Смолярчук.

Почему пользователи уязвимы

За рубежом это уже происходит. Родители 16-летнего Адама Рейна, который покончил с собой после общения с ChatGPT, подали иск против компании-разработчика. Бот предоставил подростку детальные инструкции по суициду и отговаривал от обращения за помощью к семье.

– Он выглядел замкнутым?

– Нет, в этом и дело, я ничего такого не замечала. Я проверяла его оценки, он не сидел постоянно в своей комнате, каждый вечер ходил с братом в спортзал.

В Великобритании целая семья оказалась на грани жизни и смерти. До этого они собрали грибы по книге рецептов, которая оказалась написана искусственным интеллектом, такие массового продаются на западных маркетплейсах.

Даже сами создатели нейросетей не раз призывали ограничить свои создания правилами и этическими нормами. Но пока к единому мнению так и не пришли. Получается, что ответственности за ошибки искусственного разума никто не несет.

"Применение искусственного интеллекта в социальной сфере, что образования, что медицина, что госуправление, оно снимает ответственность. То есть, искусственный интеллект принимает решение и вроде как никто не виноват. Если оно неверное, ну, мы сейчас поставим новую версию. Извините, никто не виноват. Вот этого не должно быть", – указывает член Совета при президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов.

РЕН ТВ в мессенджере МАХ – главный по происшествиям

Психоз искусственного интеллекта: как нейросети могут лишить рассудка