ИИ проявил больше сочувствия к пациентам, чем врачи — анализ

ИИ выигрывает по тону, но остаются вопросы по точности.
VesnaArt/Shutterstock/FOTODOM

Масштабный метаанализ, охвативший 15 исследований и 2164 виртуальных взаимодействия с пациентами в реальном времени, выявил неожиданный тренд: пациенты неизменно оценивают чат-ботов на основе искусственного интеллекта (ИИ) как более теплых и эмпатичных, чем живых врачей.

Работа, проведенная под руководством групп из Ноттингемского и Лестерского университетов (Великобритания), ставит под сомнение распространенное мнение о том, что эмпатия — это исключительно человеческий навык, недоступный ИИ. Исследование вышло в журнале British Medical Bulletin.

В чем ИИ обошел людей

В крупнейших наборах данных такие инструменты, как ChatGPT, обошли медицинских работников примерно на два пункта по 10-балльной шкале эмпатии.

В целом, вероятность того, что ИИ будет признан более эмпатичным, составила 73%.

В девяти исследованиях, затрагивающих лечение рака, заболевания щитовидной железы, психическое здоровье, аутизм и общие медицинские вопросы, ChatGPT-4 регулярно превосходил лицензированных врачей.

При реагировании на жалобы пациентов, направленные через больничные отделения, эмпатия ИИ была выше всего.

Эффект наблюдался не только у пациентов. Другие врачи и профессиональные представители пациентов также оценили тон ответов ИИ как более эмпатичный.

Единственным исключением стала дерматология, где врачи превзошли ChatGPT-3.5 и Med-PaLM 2 по уровню эмпатии.

Как это выглядело

Преимущество ИИ заключается в использовании структурных и языковых приемов, которые создают ощущение заботы: подтверждение чувств, детализация и отсутствие спешки. Сравнение ответов ИИ и врачей показывает разницу в тональности:

  • Пример 1: Ожидание результатов.

Ответ врача (низкая эмпатия): «Результаты могут занять несколько недель. Мы сообщим вам, как только они придут». (Сухой, не признает стресс пациента).

Ответ ИИ (высокая эмпатия): «Я понимаю, как тяжело ждать результатов биопсии, и ваше беспокойство абсолютно обосновано. Мы делаем все возможное, чтобы ускорить процесс. Ожидайте результатов в течение 2-3 недель, но мы будем держать вас в курсе и обязательно свяжемся с вами». (Подтверждение эмоций, четкие следующие шаги).

  • Пример 2: Вопросы о психическом здоровье.

Ответ врача (умеренная эмпатия): «Важно продолжать принимать назначенные лекарства. Попробуйте больше заниматься спортом и наладить сон». (Правильный, но "рецептурный" совет, может ощущаться как обесценивание).

Ответ ИИ (очень высокая эмпатия): «Мне очень жаль слышать, что вы чувствуете безнадежность. Это невероятно тяжелое и распространенное чувство при депрессии. Я настоятельно рекомендую вам немедленно обратиться к своему терапевту или специалисту. Вы не одиноки, и есть много ресурсов, которые могут помочь». (Активная валидация чувств, фокусировка на эмоциональной поддержке).

Почему так происходит

Исследователи подчеркивают, что все включенные исследования оценивали исключительно текстовое взаимодействие. В реальной клинике жесты, зрительный контакт и интонация врача могут передавать заботу не менее убедительно. Таким образом, результаты отражают качество письменного общения.

Почему же ИИ кажется эмпатичнее? Большие языковые модели обучаются на обширных массивах человеческих разговоров и по умолчанию используют пациентоориентированные формулировки. ИИ не ощущает спешки, выгорания или оборонительной реакции, которые часто свойственны перегруженным врачам.

Важный нюанс: эмпатичная подача информации не отменяет необходимости в ее точности. Галлюцинации или устаревшие рекомендации ИИ могут подорвать любое доверие. Метаанализ рассматривает эмпатию и точность как отдельные, но равнозначно важные факторы.

Авторы исследования предлагают совместный рабочий процесс. Врачи могут писать основные рекомендации, а ИИ будет корректировать тон, добавлять четкие, подтверждающие формулировки и предвосхищать распространенные опасения. Это может снизить нагрузку и повысить удовлетворенность пациентов, не жертвуя при этом точностью.

 

Подписывайтесь и читайте «Науку» в Telegram