Мужчина послушал совет ИИ и оказался в психбольнице

Мужчина все это время считал, что его травил сосед.
PixieMe/Shutterstock/FOTODOM

В США зафиксирован необычный случай, который врачи называют, возможно, первым документированным отравлением, вызванным советом искусственного интеллекта. Житель обратился к ChatGPT, чтобы найти замену поваренной соли, и в итоге три месяца принимал опасное вещество — бромистый натрий, что привело к тяжелому психическому расстройству.

По данным врачей Вашингтонского университета, мужчина был обеспокоен вредом избыточного потребления натрия (соли). Изучив литературу, он не нашел информации о замене хлорида натрия и обратился за советом к ChatGPT. Искусственный интеллект якобы предложил заменить хлорид на бромид, не уточнив, что это вещество токсично при длительном употреблении. Мужчина заказал бромистый натрий онлайн и начал принимать его регулярно.

Что такое бромид

Бромистые соединения в начале XX века применялись для лечения бессонницы и тревожности. Но позже выяснилось, что они опасны: могут вызывать так называемый бромизм — хроническое отравление, сопровождающееся неврологическими и психическими нарушениями. В 1980-х бромид практически исчез из медицинской практики, но до сих пор встречается в некоторых ветеринарных препаратах и пищевых добавках.

Как развивались события

Через три месяца после начала приема бромида мужчина поступил в больницу с жалобами на то, что его якобы отравил сосед. У него были паранойя, галлюцинации и сильное возбуждение, он отказывался пить воду, хотя испытывал жажду. Вскоре состояние переросло в острый психоз — он даже пытался убежать из отделения. Пациента госпитализировали в психиатрическое отделение, назначили капельницы и антипсихотики.

Когда его состояние улучшилось, выяснилась причина — хроническое отравление бромидом. Врачи заподозрили бромизм еще на ранней стадии, но подтвердить это смогли только после разговора с пациентом.

Через три недели мужчину выписали, отменив все препараты. В течение двух недель наблюдения его состояние оставалось стабильным.

Опасно доверять советам ИИ в вопросах здоровья

Врачи считают этот случай тревожным сигналом. Он показывает, что ИИ, вроде ChatGPT, способен выдавать советы, вырванные из контекста, и не всегда понимает, в каком именно смысле задан вопрос. Кроме того, ИИ по прежнему выдает «галлюцинации» (придумывает ответы).

В отчете отмечается:
«Хотя такие инструменты, как ChatGPT, могут обеспечить связь между учеными и широкой публикой, ИИ также несет риск распространения информации, вырванной из контекста».

Медицинский эксперт, подчеркивают врачи, никогда бы не рекомендовал замену соли на бромид. И, как добавляет автор публикации:

«Наличие хорошего друга, с которым можно обсудить случайные идеи, должно оставаться неотъемлемой частью жизни, независимо от того, какая у ChatGPT версия или какой нейросетью вы пользуетесь».

Подписывайтесь и читайте «Науку» в Telegram