Исследователи вывели формулу нашего доверия к искусственному интеллекту

Новая модель объясняет противоречия прошлых исследований, где люди то отвергали ИИ, то принимали его советы.
Andrey Suslov/Shutterstoc/FOTODOM

Новое исследование из MIT показало, что люди оценивают искусственный интеллект (ИИ) не как фанаты или противники технологий, а исходя из его возможностей и необходимости личного подхода.
Работа, опубликованная Psychological Bulletin, объясняет, почему мы доверяем ИИ в одних ситуациях, но отвергаем — в других. Это открытие помогает понять, как ИИ может стать частью нашей жизни — от финансов до медицины — и подчеркивает важность контекста в его принятии.

Команда под руководством профессора Джексона Лу проанализировала 163 исследования, включающих 82 000 реакций на 93 сценария использования ИИ — например, диагностику рака или отбор резюме. Они предложили модель «Возможности — Персонализация», где люди выбирают ИИ, если считают его более компетентным, чем человека, и если задача не требует индивидуального подхода.

«Мы предполагаем, что оценка ИИ возникает, когда он воспринимается как более способный, а персонализация не нужна», — говорит Лу.

Мета-анализ подтвердил: люди доверяют ИИ в задачах, где он быстрее и точнее — например, при обнаружении мошенничества или анализе больших данных. Но в ситуациях, требующих эмпатии — терапия, собеседования, медицинские диагнозы — предпочтение отдается человеку.

«Люди хотят, чтобы их уникальность учитывалась. ИИ кажется безличным, даже если обучен на огромных данных», — отмечает Лу.

Исследование показало, что 68% участников предпочли ИИ для технических задач, но только 22% — для личных.

Как работает модель

«Возможности» — это восприятие ИИ как более точного или эффективного, чем человек. Например, алгоритмы обнаруживают мошенничество с точностью 95%, тогда как человек — около 75-80%.

«Персонализация»
— это потребность в учете индивидуальных особенностей. В терапии 85% людей хотят человеческого понимания, а в сортировке данных это не важно. Если ИИ кажется менее способным или задача требует личного подхода, возникает «отвращение к ИИ». Полное принятие возможно только тогда, когда выполнены оба условия.

Новая модель объясняет противоречия прошлых исследований, где ИИ то отвергали, то принимали. В 2015 году люди прощали ошибки человека, но не ИИ, а в 2019 году наоборот предпочитали советы ИИ.

Также принятие ИИ зависит от задачи. Например, в странах с безработицей выше 7% люди на 30% реже доверяют ИИ — из-за страха потери работы.

Также важна осязаемость. Например, робот-пылесос вызывает доверие у 70% пользователей, а алгоритм подбора персонала — у 45%. В целом, люди на 40% чаще доверяют осязаемым роботам, чем невидимым алгоритмам. 

По словам авторов исследования, понимание этой модели поможет внедрять ИИ там, где он наиболее эффективен, избегая сопротивления.

«Если вы боитесь, что ИИ заменит вас, вы менее склонны его принимать», — поясняет Лу.

Ученые планируют изучать, как отношение к ИИ меняется со временем — особенно с ростом его возможностей. Модель может помочь разработчикам ИИ учитывать человеческие ожидания, делая технологии более дружелюбными.

 

Подписывайтесь и читайте «Науку» в Telegram