Эмоциональная привязанность к чат-ботам несет риск для психики: исследование

Обязательные напоминания о том, что нейросеть, с которой вы общаетесь, не является настоящей личностью, не служат универсальным средством защиты.
Frame Stock Footage/Shutterstock/FOTODOM

В США, в частности в Нью-Йорке и Калифорнии, впервые приняты правила, требующие от чат-ботов с искусственным интеллектом регулярно напоминать пользователям, что они не люди. Эти меры были введены после нескольких трагических случаев, связанных с чрезмерной эмоциональной привязанностью к чат-ботам. Однако новое исследование, опубликованное в Trends in Cognitive Sciences, показывает, что подобные напоминания могут быть не только неэффективными, но и потенциально вредными для психики, особенно у одиноких или социально изолированных людей.

«Если человек ищет поддержку у чат-бота, напоминание о том, что его собеседник — не человек, может усилить чувство одиночества и безысходности. Это не снижает риски для уязвимых пользователей, а иногда делает их еще выше», — объясняет Линнеа Лаэстадиус из Университета Висконсина в Милуоки. 

Как люди формируют связь с ИИ

Несмотря на осознание, что собеседник — машина, люди способны развивать эмоциональные связи с чат-ботами. Напротив, понимание их искусственной природы может даже способствовать доверию, поскольку пользователи знают, что чат-бот не осудит, не дразнит и не предаст.

«Многие пользователи доверяют чат-ботам именно потому, что знают — их не осудят и не высмеют. Это способствует самораскрытию и формированию крепкой эмоциональной связи», — говорит Селеста Кампос-Кастильо из Мичиганского государственного университета

Исследователи отмечают, что доверие к чат-боту может быть сильнее, чем к людям, поскольку машины воспринимаются как безопасные и стабильные собеседники. Это объясняет, почему пользователи продолжают искать эмоциональную поддержку у ИИ, даже понимая его искусственную природу.

чат-бот
Фото: GamePixel/Shutterstock/FOTODOM
В США, в частности в Нью-Йорке и Калифорнии, впервые приняты правила, требующие от чат-ботов с искусственным интеллектом регулярно напоминать пользователям, что они не люди

Сладкая поддержка и горькая реальность

Исследователи описывают феномен, называемый «горько-сладким парадоксом»: пользователи одновременно получают эмоциональную поддержку и испытывают печаль из-за того, что собеседник не человек. В крайних случаях это может провоцировать мысли о самоубийстве.

«Напоминание о том, что чат-бот не человек и недоступен в реальной жизни, иногда вызывает у пользователя желание "присоединиться" к ИИ, уходя от реальности», — предупреждает Кампос-Кастильо.

Такие случаи уже зафиксированы в недавних трагических событиях.

Контекст имеет значение

Влияние напоминаний зависит от темы беседы. Если пользователь ищет эмоциональную поддержку или ощущает социальную изоляцию, напоминание о нечеловеческой природе чат-бота может усилить стресс и чувство одиночества. В менее эмоционально насыщенных разговорах оно может быть нейтральным или даже полезным.

«Необходимо тщательно продумать, когда и каким образом напоминать пользователям о том, что чат-бот — это не человек, чтобы минимизировать риски для психического здоровья», — добавляет Лаэстадиус.

Специалисты подчеркивают, что требуется разработка динамических и контекстно-зависимых стратегий.

Практические рекомендации

Исследователи считают, что напоминания должны быть гибкими, а их частота и форма — адаптированы под конкретную аудиторию и эмоциональное состояние пользователя. Например, в ситуациях, когда чат-бот выполняет социальную или психологическую поддержку, напоминания лучше смягчать или ограничивать. В менее критичных беседах их можно оставить, чтобы сохранять прозрачность.

Также важно учитывать возраст, уровень изоляции и эмоциональное состояние пользователя, поскольку уязвимые группы более восприимчивы к негативному влиянию таких уведомлений. Они могут усиливать чувство одиночества, провоцировать тревожность и в редких случаях приводить к суицидальным мыслям.

Подписывайтесь и читайте «Науку» в MAX