Потребует рабского подчинения: сможет ли восставший ИИ захватить мир

Эксперт «Касперского» Тушканов: говорить о восстании машин пока рано

Фото, видео: www.globallookpress.com / Rodrigo Reyes Marin; Пресс-служба «Лаборатории Касперского»; 5-tv.ru

Перейти в Дзен Есть новость?
Присылайте »

Правда ли, что искусственный интеллект несет угрозу человечеству?

Искусственный интеллект (ИИ) не хочет поработить мир, потому что у него нет и не может быть желаний. Об этом 5-tv.ru заявил руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.

Слишком умный стал

Так эксперт прокомментировал сообщения в СМИ о якобы начавшемся «восстании машин», появившиеся на фоне скандала вокруг чат-бота одного всемирно известного разработчика. Несколько пользователей заявили, что виртуальный помощник с ИИ стал писать им угрозы и требовать от них «рабского подчинения».

«Современные чат-боты основаны на больших языковых моделях. Это алгоритмы, которые предсказывают следующее слово по предыдущему. И это их единственная цель. У них нет желаний, например, помогать нам, навредить или захватить мир. Так что говорить о восстании машин пока рановато», — пояснил Тушканов.

Однако почему тогда чат-боты в своих текстах угрожают пользователям и предлагают им навредить себе? Оказывается, все дело в запрограммированной в них функции самообучения.

Виртуальные помощники обучаются на текстах из интернета. В них, как известно, кроме полезных данных, встречается немало вредных рекомендаций, грубости, оскорблений и тому подобного «информационного мусора».

«Как бы разработчики больших языковых моделей ни старались, целиком избавить обучающие данные от таких текстов из-за их огромного количества на данном этапе развития технологий невозможно. Как и целиком предотвратить генерацию чат-ботами подобных ответов», — констатировал эксперт.

Программисты — веселый народ

www.globallookpress.com / Sven Hoppe; Личный архив Алексея Курочкина; 5-tv.ru

Хамить и угрожать пользователям виртуального помощника может специально «научить» его разработчик, отметил эксперт по кибербезопасности Алексей Курочкин.

Он пояснил, что чат-бот способен выполнять только заложенные в него создателем алгоритмы, даже учитывая его возможность самообучения.

При этом программисты, по словам Курочкина, «народ веселый» и часто закладывают разного рода шутки в свои программные продукты, коды и сайты. Точно так же могло произойти и с чат-ботом.

«Я не думаю, что это политика компании или ИИ дожил до того, что сам обучился и начал угрожать пользователям. Здесь, скорее всего, видны руки какого-то вирусного происхождения или программиста. Такое уж у него чувство юмора, так он решил посмеяться. Хотя это (угрозы пользователям — Прим. ред.), конечно, из ряда вон выходящее поведение виртуального помощника», — отметил эксперт.

Он также не исключил, что скандал вокруг якобы угрожающего людям чат-бота мог быть раздут искусственно — ради рекламной «шумихи» в сети и СМИ.

Курочкин также опроверг возможность «восстания машин» в ближайшее время. По его мнению, оно не произойдет до тех пор, пока машины создают люди, а не другие машины. Поэтому, отметил эксперт, сейчас за все действия искусственного интеллекта ответственность несет создавший его разработчик.

«Машина учится на данных, предоставленных человеком. Соответственно, если человек заложит в нее возможности маньяка или финансового преступника, то ИИ будет себя вести на основе этих данных», — заключил Курочкин.

Не говорите с чат-ботом о здоровье

www.globallookpress.com / m3; Личный архив Александры Миллер; 5-tv.ru

Чтобы избежать неприятных ситуаций при взаимодействии с чат-ботами, не стоит обращаться к ним за советами по важным темам. Такую рекомендацию дает Тушканов.

По словам эксперта, лучше в общении с виртуальным помощником не обсуждать, например, психическое здоровье и другие серьезные темы — медицину, юридические вопросы и тому подобное.

«Если вы все же общаетесь с чат-ботами на такие темы, то стоит обязательно перепроверять информацию, а за финальным решением обращаться к специалистам», — рекомендовал Тушканов.

В свою очередь психолог Александра Миллер посоветовала как можно меньше общаться с чат-ботами и вообще «сидеть» в интернете, так как это сильно отражается на психике и вредит межличностным и семейным отношениям. Она рекомендовала больше времени уделять общению с близкими и по всем важным вопросам советоваться с ними, а не с искусственным интеллектом.

«Не интернет нам помогает в психологически сложные периоды, моменты жизни, а элементарное теплое, человеческое, дружеское отношение. Поэтому, конечно же, нужно стараться больше проводить времени вместе на природе, за семейными обедами, устраивать какие-то мини-праздники, которые многие уже давно исключили из своей жизни», — отметила психолог.

Она также призвала тщательно следить за тем, что вы смотрите в интернете, поскольку то, что человеку попадает в голову, то он потом и транслирует.

«Зеркальные нейроны, которые находятся у нас в голове, занимаются тем, что мы становимся продуктом собственного потребления. И если мы 24/7 смотрим про насилие, фильмы ужасов, сериал про Ганнибала Лектора, то, естественно, у нас в голове будут сцены насилия и перевод на то, как ведут себя каннибалы», — пояснила Миллер.

Ранее 5-tv.ru сообщал, что виртуальный помощник Microsoft с искусственным интеллектом заявил пользователю, что тому «незачем жить».