Россияне начали использовать ИИ в качестве семейного психолога

, 6:50 Алексей Мокряков

Фото: 5-tv.ru

А тем временем чат-боты могут не только разрушать отношения пары, но и даже игнорируют суицидальные намерения общающихся с ними людей.

Искусственный интеллект (ИИ) способен негативно влиять на личные взаимоотношения между людьми. Сегодня мы так заигрались в общении с ИИ, что доходит до крайностей. Известно, например, что появилась тенденция, когда чат-боты используют в качестве консультантов по семейным вопросам. О том, каким образом ИИ становится участником отношений, в чем кроется риск и можно ли безопасно обращаться к нему за советом, рассказывают «Известия».

Не нейросеть, а психолог

Запрашивать помощь у ИИ при личных конфликтах — лишь один из примеров повседневного взаимодействия с цифровыми решениями, объясняет Яков Филевский, специалист по социотехническому тестированию компании Angara Security. Рост интереса к подобным практикам связан с легкостью доступа к технологиям и постоянным вниманием со стороны СМИ к случаям их применения.

«ИИ выглядит беспристрастным и объективным: он не обременен чувствами и эмоциями, а людям в стрессовой ситуации хочется видеть рядом кого-то стабильного и имеющего четкий ответ на их вопросы», — объясняет Филевский.

По словам эксперта, в отличие от нейросетей, психологи не дают прямых указаний, а стремятся обучить человека самостоятельному решению проблем. В работе горячих линий и кризисных центров основная задача — стабилизировать эмоциональное состояние обратившегося, а не сразу решить проблему. ИИ на этом фоне кажется гораздо более оперативным — он дает ответ за считанные секунды.

«Предвзятый» советчик

ИИ может служить вспомогательным механизмом: предлагать варианты общения, советы по ведению диалога или информацию о типичных сценариях решения семейных разногласий, объясняет клинический психолог и психоаналитический терапевт Мария Бодрягина. Но при этом нейросеть не обладает чувствительностью к психологическим нюансам и индивидуальной реальности участников конфликта.

«В отличие от психотерапевта нейросеть не слышит бессознательные смыслы и не способствует пониманию внутренних причин конфликта. Поэтому она может быть удобным „справочником“ или „тренажером“, но не полноценным посредником в конфликте», — отмечает эксперт.

Сложность заключается также в том, что нейросети обучаются на огромном количестве текстов и реагируют на ту информацию, которую получают в конкретный момент. Если пользователь описывает ситуацию исключительно со своей точки зрения, ИИ будет отражать именно ее, создавая иллюзию правоты.

Это не вина алгоритма, отмечают специалисты, а лишь следствие его логики: ИИ не способен учитывать эмоциональный фон, не уточняет детали, не задает дополнительные вопросы — в отличие от живого специалиста.

Чем это может закончиться

Как поясняет Яков Филевский, ИИ формирует ответы на базе широкого круга источников — от энциклопедий до интернет-форумов. Это может привести к тому, что нейросеть займет чью-то сторону вместо того, чтобы предложить сбалансированный взгляд на ситуацию.

Кроме того, при запуске нового диалога ИИ может давать противоречивую информацию, потому что «не помнит» предыдущего чата.

Поддержка со стороны алгоритма может закрепить искаженную точку зрения и усугубить конфликт, ведь человек участвует в так называемом «ложном общении», избегая настоящего — со своим партнером.

И развод — не самое серьезное последствие новой тенденции.

«Чрезмерное доверие некоторых людей разного возраста к советам ИИ уже приводило к печальным случаям, таким как игнорирование суицидальных намерений, доведение до самоубийства и так далее», — рассказывает Al-консультант Татьяна Буторина.

Еще больше новостей — у Пятого канала в мессенджере MAX.

Читайте нас в Дзен