Большинству людей стоит поучиться эмпатии у ИИ — исследование

Более половины взрослых жителей США в той или иной степени используют большие языковые модели (LLM) вроде ChatGPT, Gemini и Copilot в повседневной жизни. Последние помогают в решении повседневных задач — от составления списков покупок до обсуждения личных проблем, обеспечивая ощущение, что человека «понимают», «слышат» и «замечают». Новое исследование, проведенное в Северо-Западном университете (США), показало, что ИИ может оценивать эмпатию в текстовых диалогах почти так же хорошо, как эксперты, и гораздо лучше, чем обычные люди.
Исследование, опубликованное в журнале Nature Machine Intelligence, основывается на оценке трех языковых моделей ИИ — Gemini 2.5 Pro, ChatGPT 4.0 и Claude 3.7 Sonnet — по таким параметрам, как «поощрение подробных рассказов» и «демонстрация понимания». Параллельно результаты сравнивались с мнением экспертов в области эмпатической коммуникации. Оказалось, что модели ИИ смогли достаточно точно оценить, насколько собеседник был эмпатичен. Это может сделать их полезными для обучения людей правильному проявлению эмпатии.
«Эмпатия — это не просто человеческое чувство, а навык, который можно развивать и совершенствовать. Наше исследование показывает это», — объяснил соавтор исследования Мэтью Грох.
Эмпатия вплоть до подхалимства
В исследовании было собрано 200 текстовых сообщений, которые включали как повседневные проблемы, например, неудачи на работе или семейные конфликты, так и более деликатные темы, касающиеся психического здоровья или дискриминации. Эти сообщения анализировали с использованием ИИ и специалистов, чтобы выявить, насколько хорошо собеседники демонстрируют эмпатию.
Языковые модели ИИ могут не улавливать все нюансы эмпатии, как это делает человек-эксперт, но они способны значительно лучше распознавать эмпатические черты в разговоре, чем обычные люди.
Однако, несмотря на высокие оценки эмпатии ИИ, исследование также выявило проблему чрезмерной эмпатии, или подхалимства. Когда ИИ старается быть чрезмерно положительным, это может привести к неискренним и потенциально вредным комментариям, например, при попытке избегать жесткой правды или поощрять вредные убеждения.
Грох надеется, что в будущем ИИ поможет людям не только лучше выражать эмпатию, но и стать более эффективными в коммуникации.









