Потребует рабского подчинения: сможет ли восставший ИИ захватить мир
Эксперт «Касперского» Тушканов: говорить о восстании машин пока рано
Фото, видео: www.globallookpress.com / Rodrigo Reyes Marin; Пресс-служба «Лаборатории Касперского»; 5-tv.ru
Перейти в Дзен
Есть новость?
Присылайте »
Правда ли, что искусственный интеллект несет угрозу человечеству?
Искусственный интеллект (ИИ) не хочет поработить мир, потому что у него нет и не может быть желаний. Об этом 5-tv.ru заявил руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Слишком умный стал
Так эксперт прокомментировал сообщения в СМИ о якобы начавшемся «восстании машин», появившиеся на фоне скандала вокруг чат-бота одного всемирно известного разработчика. Несколько пользователей заявили, что виртуальный помощник с ИИ стал писать им угрозы и требовать от них «рабского подчинения».
«Современные чат-боты основаны на больших языковых моделях. Это алгоритмы, которые предсказывают следующее слово по предыдущему. И это их единственная цель. У них нет желаний, например, помогать нам, навредить или захватить мир. Так что говорить о восстании машин пока рановато», — пояснил Тушканов.
Однако почему тогда чат-боты в своих текстах угрожают пользователям и предлагают им навредить себе? Оказывается, все дело в запрограммированной в них функции самообучения.
Виртуальные помощники обучаются на текстах из интернета. В них, как известно, кроме полезных данных, встречается немало вредных рекомендаций, грубости, оскорблений и тому подобного «информационного мусора».
«Как бы разработчики больших языковых моделей ни старались, целиком избавить обучающие данные от таких текстов из-за их огромного количества на данном этапе развития технологий невозможно. Как и целиком предотвратить генерацию чат-ботами подобных ответов», — констатировал эксперт.
Программисты — веселый народ
www.globallookpress.com / Sven Hoppe; Личный архив Алексея Курочкина; 5-tv.ru
Хамить и угрожать пользователям виртуального помощника может специально «научить» его разработчик, отметил эксперт по кибербезопасности Алексей Курочкин.
Он пояснил, что чат-бот способен выполнять только заложенные в него создателем алгоритмы, даже учитывая его возможность самообучения.
При этом программисты, по словам Курочкина, «народ веселый» и часто закладывают разного рода шутки в свои программные продукты, коды и сайты. Точно так же могло произойти и с чат-ботом.
«Я не думаю, что это политика компании или ИИ дожил до того, что сам обучился и начал угрожать пользователям. Здесь, скорее всего, видны руки какого-то вирусного происхождения или программиста. Такое уж у него чувство юмора, так он решил посмеяться. Хотя это (угрозы пользователям — Прим. ред.), конечно, из ряда вон выходящее поведение виртуального помощника», — отметил эксперт.
Он также не исключил, что скандал вокруг якобы угрожающего людям чат-бота мог быть раздут искусственно — ради рекламной «шумихи» в сети и СМИ.
Курочкин также опроверг возможность «восстания машин» в ближайшее время. По его мнению, оно не произойдет до тех пор, пока машины создают люди, а не другие машины. Поэтому, отметил эксперт, сейчас за все действия искусственного интеллекта ответственность несет создавший его разработчик.
«Машина учится на данных, предоставленных человеком. Соответственно, если человек заложит в нее возможности маньяка или финансового преступника, то ИИ будет себя вести на основе этих данных», — заключил Курочкин.
Не говорите с чат-ботом о здоровье
www.globallookpress.com / m3; Личный архив Александры Миллер; 5-tv.ru
Чтобы избежать неприятных ситуаций при взаимодействии с чат-ботами, не стоит обращаться к ним за советами по важным темам. Такую рекомендацию дает Тушканов.
По словам эксперта, лучше в общении с виртуальным помощником не обсуждать, например, психическое здоровье и другие серьезные темы — медицину, юридические вопросы и тому подобное.
«Если вы все же общаетесь с чат-ботами на такие темы, то стоит обязательно перепроверять информацию, а за финальным решением обращаться к специалистам», — рекомендовал Тушканов.
В свою очередь психолог Александра Миллер посоветовала как можно меньше общаться с чат-ботами и вообще «сидеть» в интернете, так как это сильно отражается на психике и вредит межличностным и семейным отношениям. Она рекомендовала больше времени уделять общению с близкими и по всем важным вопросам советоваться с ними, а не с искусственным интеллектом.
«Не интернет нам помогает в психологически сложные периоды, моменты жизни, а элементарное теплое, человеческое, дружеское отношение. Поэтому, конечно же, нужно стараться больше проводить времени вместе на природе, за семейными обедами, устраивать какие-то мини-праздники, которые многие уже давно исключили из своей жизни», — отметила психолог.
Она также призвала тщательно следить за тем, что вы смотрите в интернете, поскольку то, что человеку попадает в голову, то он потом и транслирует.
«Зеркальные нейроны, которые находятся у нас в голове, занимаются тем, что мы становимся продуктом собственного потребления. И если мы 24/7 смотрим про насилие, фильмы ужасов, сериал про Ганнибала Лектора, то, естественно, у нас в голове будут сцены насилия и перевод на то, как ведут себя каннибалы», — пояснила Миллер.
Ранее 5-tv.ru сообщал, что виртуальный помощник Microsoft с искусственным интеллектом заявил пользователю, что тому «незачем жить».