ИИ проявил больше сочувствия к пациентам, чем врачи — анализ

Масштабный метаанализ, охвативший 15 исследований и 2164 виртуальных взаимодействия с пациентами в реальном времени, выявил неожиданный тренд: пациенты неизменно оценивают чат-ботов на основе искусственного интеллекта (ИИ) как более теплых и эмпатичных, чем живых врачей.
Работа, проведенная под руководством групп из Ноттингемского и Лестерского университетов (Великобритания), ставит под сомнение распространенное мнение о том, что эмпатия — это исключительно человеческий навык, недоступный ИИ. Исследование вышло в журнале British Medical Bulletin.
В чем ИИ обошел людей
В крупнейших наборах данных такие инструменты, как ChatGPT, обошли медицинских работников примерно на два пункта по 10-балльной шкале эмпатии.
В целом, вероятность того, что ИИ будет признан более эмпатичным, составила 73%.
В девяти исследованиях, затрагивающих лечение рака, заболевания щитовидной железы, психическое здоровье, аутизм и общие медицинские вопросы, ChatGPT-4 регулярно превосходил лицензированных врачей.
При реагировании на жалобы пациентов, направленные через больничные отделения, эмпатия ИИ была выше всего.
Эффект наблюдался не только у пациентов. Другие врачи и профессиональные представители пациентов также оценили тон ответов ИИ как более эмпатичный.
Единственным исключением стала дерматология, где врачи превзошли ChatGPT-3.5 и Med-PaLM 2 по уровню эмпатии.
Как это выглядело
Преимущество ИИ заключается в использовании структурных и языковых приемов, которые создают ощущение заботы: подтверждение чувств, детализация и отсутствие спешки. Сравнение ответов ИИ и врачей показывает разницу в тональности:
-
Пример 1: Ожидание результатов.
Ответ врача (низкая эмпатия): «Результаты могут занять несколько недель. Мы сообщим вам, как только они придут». (Сухой, не признает стресс пациента).
Ответ ИИ (высокая эмпатия): «Я понимаю, как тяжело ждать результатов биопсии, и ваше беспокойство абсолютно обосновано. Мы делаем все возможное, чтобы ускорить процесс. Ожидайте результатов в течение 2-3 недель, но мы будем держать вас в курсе и обязательно свяжемся с вами». (Подтверждение эмоций, четкие следующие шаги).
-
Пример 2: Вопросы о психическом здоровье.
Ответ врача (умеренная эмпатия): «Важно продолжать принимать назначенные лекарства. Попробуйте больше заниматься спортом и наладить сон». (Правильный, но "рецептурный" совет, может ощущаться как обесценивание).
Ответ ИИ (очень высокая эмпатия): «Мне очень жаль слышать, что вы чувствуете безнадежность. Это невероятно тяжелое и распространенное чувство при депрессии. Я настоятельно рекомендую вам немедленно обратиться к своему терапевту или специалисту. Вы не одиноки, и есть много ресурсов, которые могут помочь». (Активная валидация чувств, фокусировка на эмоциональной поддержке).
Почему так происходит
Исследователи подчеркивают, что все включенные исследования оценивали исключительно текстовое взаимодействие. В реальной клинике жесты, зрительный контакт и интонация врача могут передавать заботу не менее убедительно. Таким образом, результаты отражают качество письменного общения.
Почему же ИИ кажется эмпатичнее? Большие языковые модели обучаются на обширных массивах человеческих разговоров и по умолчанию используют пациентоориентированные формулировки. ИИ не ощущает спешки, выгорания или оборонительной реакции, которые часто свойственны перегруженным врачам.
Важный нюанс: эмпатичная подача информации не отменяет необходимости в ее точности. Галлюцинации или устаревшие рекомендации ИИ могут подорвать любое доверие. Метаанализ рассматривает эмпатию и точность как отдельные, но равнозначно важные факторы.
Авторы исследования предлагают совместный рабочий процесс. Врачи могут писать основные рекомендации, а ИИ будет корректировать тон, добавлять четкие, подтверждающие формулировки и предвосхищать распространенные опасения. Это может снизить нагрузку и повысить удовлетворенность пациентов, не жертвуя при этом точностью.














