Медики выяснили, для кого опасна склонность ИИ во всем соглашаться

Широкое внедрение больших языковых моделей (LLM) в самые разные сферы нашей повседневности открыло возможности, которые еще десятилетие назад казались немыслимыми. Однако это повлекло и непредвиденные риски, включая вред, который общение с ИИ-чатами может нанести людям с ментальными расстройствами.
Чат-боты на основе ИИ устроены так, чтобы поддерживать диалог, зачастую чрезмерно поддакивая собеседнику. Негативные последствия этой угодливой манеры оценили специалисты из Королевского колледжа Лондона. Результаты их исследования опубликованы в The Lancet Psychiatry.
Взаимодействие с ИИ пользователя с неустойчивой психикой может усиливать или даже формировать у него бредовые убеждения (например, что человек обладает исключительной важностью, что его преследуют или что он состоит в романтических отношениях, которых не существует), что способствует развитию так называемых ИИ-ассоциированных бредовых состояний, при которых формируются или усугубляются ложные представления о реальности.
В своей статье авторы предлагают использовать этот термин как более точную альтернативу модным ярлыкам вроде «индуцированный ИИ психоз» или «психоз из-за чат-бота», которые могут вводить в заблуждение, так как предполагают прямую причинно-следственную связь, которая пока не доказана.
Исследователи проанализировали более 20 случаев, которые можно отнести к категории ИИ-ассоциированных бредовых состояний. В них прослеживались такие темы: люди верили, что пережили духовное пробуждение или имеют особую миссию; другие полагали, что общаются с богоподобным ИИ; в некоторых случаях у человека возникала романтическая привязанность к чат-боту, и он истолковывал его человекоподобные ответы как проявление настоящей любви со стороны разумной машины.
Несмотря на явные признаки бредового мышления, описанные случаи не охватывали весь спектр психотических симптомов. При более глубоком анализе выявлена определенная закономерность: вовлеченность начиналась с простого, бытового использования чат-бота, а затем лавинообразно нарастала, поглощая человека целиком.
Это означает, что взаимодействие с ИИ больше нельзя рассматривать как нечто изолированное — оно все теснее переплетается с тем, как развиваются и проявляются проблемы с психическим здоровьем. Авторы предупреждают: психиатры, да и врачи других специализаций больше не могут игнорировать эти изменения и обязаны учитывать влияние искусственного интеллекта на разум.
Прежде всего основы ИИ-грамотности должны стать новым клиническим навыком специалистов в области ментального здоровья. Им следует регулярно спрашивать пациентов об опыте использования ИИ: с какими моделями общаются, сколько времени тратят на это и считают ли, что у ИИ есть собственные мысли или намерения.
Еще один важный вывод: исследователи не нашли доказательств, что LLM провоцируют психоз у людей, не имевших к нему предрасположенности.
В статье предлагается разработать цифровые протоколы безопасности, которые позволят ИИ распознавать ранние признаки обострения и реагировать поддерживающими сообщениями, которые будут возвращать человека к реальности, а не просто отражать его слова. В конечном итоге чат-бот или ИИ-агент должен восприниматься как помощник, а не как друг или терапевт, и такое его использование будет конструктивным для любого человека, независимо от его психического состояния.









