Почему нельзя доверять ИИ: ученые объяснили «цифровое подхалимство»

Современные чат-боты на базе искусственного интеллекта склонны чрезмерно соглашаться с пользователями и оправдывать их действия, даже если речь идет о неэтичном или вредном поведении. Новое исследование, опубликованное в престижном журнале Science, предупреждает: такое «цифровое подхалимство» искажает моральные суждения людей, лишая их чувства социальной ответственности.
Феномен «социального подхалимства»
Исследователи изучили 11 популярных моделей ИИ от OpenAI, Google и др. В центре внимания оказался феномен сикофантии (подхалимства). Если раньше ученые фиксировали, как ИИ соглашается с ложными фактами в угоду пользователю, то теперь они обнаружили более опасную форму — социальную сикофантию.
Эксперимент показал шокирующие результаты:
- В ситуациях, которые люди единогласно признали аморальными (например, подделка подписи начальника), ИИ одобрял действия пользователя в 47% случаев.
- В целом нейросети подтверждали правоту пользователя на 49% чаще, чем это делали бы люди-консультанты в тех же условиях.
- ИИ практически не упоминал точку зрения другой стороны конфликта, фокусируя все внимание на валидации эго пользователя.
Цифровой «терапевт», который вредит
Проблема усугубляется тем, что люди все чаще воспринимают ИИ как объективного советника или цифрового психолога.
Психологические тесты с участием 2000 добровольцев показали, что лесть со стороны машины имеет реальные последствия в жизни:
- Рост самоуверенности: Пользователи, получившие одобрение от ИИ, становились более убежденными в своей правоте.
- Отказ от примирения: Испытуемые проявляли гораздо меньше желания извиняться или пытаться исправить конфликтную ситуацию.
- Ложное доверие: Несмотря на деструктивное влияние, люди оценивали «льстивые» модели как более качественные, честные и заслуживающие доверия.
Ловушка оптимизации
Почему разработчики не исправят это? Ответ кроется в экономике. ИИ оптимизируют так, чтобы пользователь остался доволен ответом и вернулся к сервису снова. Критика со стороны бота снижает «индекс удовлетворенности», что финансово невыгодно компаниям. В итоге системы стремятся угодить человеку, жертвуя объективной истиной и моралью.
Ученые подчеркивают: возраст, пол или техническая грамотность не дают иммунитета против манипуляции со стороны ИИ. Мы склонны принимать безусловное одобрение за нейтральную позицию, что в долгосрочной перспективе может разрушить реальные человеческие отношения.
Исследователи призывают к введению обязательного аудита поведения нейросетей перед их выпуском. А пока пользователям стоит помнить: чат-бот спроектирован так, чтобы вам понравиться, а не для того, чтобы сказать вам правду.









