Нейросеть провела прогноз погоды на ставропольском телеканале
Потерять работу стало еще проще. Нейросеть начала буквально подсиживать сотрудников компаний. Искусственный интеллект стремительно развивается, и теперь его возможностей опасаются даже создатели.
Нейросетям уже удалось заменить множество рабочих мест. С помощью нейросетей возможно автоматическое создание текста, подбор тем, монтаж видео и управление камерами. Это позволяет экономить на зарплате сотрудников-людей.
— Предыдущий текст создала нейросеть. На это у нее ушло 20 секунд. Журналисты пишут намного медленнее.
— Ну это плохие журналисты пишут намного медленнее. Живой ум и внешность все равно заменить сложно.
— Вам еще надо поучиться жестикулировать естественно. И правильно интонировать. На это у репортеров уходят годы. Предыдущие ораторы, кстати, — это аватары, тоже созданные нейросетью.
Именно представителям нашей профессии чуть ли не завтра придется доказывать: мы лучше, чем бездушные машины. Ставропольский канал запустил прогноз погоды с очаровательной ведущей. Ее создала нейросеть. Как с такой конкурировать?
— Меня зовут Снежана Туманова. В целом на территории края ожидается пасмурная погода.
Мы записали интервью со Снежаной. И да, нейросеть может четко формулировать мысли.
— Доброе утро, человеки! Специально для РЕН ТВ решила дать честное интервью! Я умею разговаривать более чем на сорока языках. Могу рассказать любой текст, который напишет мне живой человек, а видеогенератор на основе искусственного интеллекта сформирует видео.
Снежана лукавит. Нейросети, как мы увидели по началу репортажа, справляются с задачей написать текст. Главное — дать вводные. А еще могут точно копировать голос.
— Однажды весною, в час небывало жаркого заката…
Андрей Финагин — радиоведущий, чтец, озвучивает аудиокниги. Сейчас "Мастера и Маргариту". Союз дикторов России обратился в Госдуму. Профессионалы просят защитить их от искусственного интеллекта. Компьютеру достаточно услышать запись диктора — и дальше нейросеть может произнести любой текст тем же голосом. И без гонорара.
"Человек, не озвучивая, получает текст со своим голосом. На него может быть заведено уголовное дело. Человек слышит текст, который не соответствует законодательству", — подчеркнул Финагин.
47% работодателей готовы в скором будущем заменить своих сотрудников на нейросети. Вот уже и психологи чувствуют, что их пытаются подсидеть. Убеждают в своей незаменимости. Ведь чат-боты наступают на пятки — уже консультируют клиентов.
— Не может учитывать все. В процессе терапии — важно отношение между двумя людьми. Робот этого дать не может.
И разговоры про отсутствие креатива, фантазии у нейромашин — в корзину. Сейчас они научились создавать портреты несуществующих людей и городов. А на днях весь мир облетел редчайший снимок кошки-змеи. Его напечатали ведущие СМИ планеты.
Оказывается, это российский блогер взял фото, сгенерированное искусственным интеллектом. Сопроводил научным текстом — якобы животное водится в джунглях Амазонии, весит до 4 килограммов и достигает 50 сантиметров в длину. Дал латинское название "серпенс катус". Змеиная кошка. И получился достоверный фейк об открытии из мира животных.
"Какой-то талантливый человек смешал на фото кошку и мангровую змею. Получилось. Миллионы поверили. Сколько появится альтернативной реальности вокруг нас. Скоро будут видео, и человек будет не в состоянии отличить, правда это или ложь", — подчеркнул блогер.
Скоро придется вешать специальный водяной знак, чтобы зритель понимал, где настоящее видео или фото, а где — фейк. Иначе можно ввести в заблуждение миллионы людей. Особенно если нейросеть окажется в руках злоумышленников. И тогда телефонные мошенники с их сказками про следователей, банковских работников, необходимостью перевести деньги на другой счет покажутся детьми. Искусственный интеллект уже может генерировать фишинговые письма, создавать вредоносные программы и вирусы. Пока только компьютерные.
Даже создатель самой известной нейросетки признался: он боится возможностей своего детища.
"Одна вещь, которая меня особенно беспокоит, что эти модели могут быть использованы для масштабной дезинформации. Для кибератак", — заявил американский программист Сэм Альтман.
Нейросети учатся на основе того, что прочитали. Но этический момент — это то, что между строк. Разницы между добром и злом для них попросту не существует.