Мужчина послушал совет ИИ и оказался в психбольнице

В США зафиксирован необычный случай, который врачи называют, возможно, первым документированным отравлением, вызванным советом искусственного интеллекта. Житель обратился к ChatGPT, чтобы найти замену поваренной соли, и в итоге три месяца принимал опасное вещество — бромистый натрий, что привело к тяжелому психическому расстройству.
По данным врачей Вашингтонского университета, мужчина был обеспокоен вредом избыточного потребления натрия (соли). Изучив литературу, он не нашел информации о замене хлорида натрия и обратился за советом к ChatGPT. Искусственный интеллект якобы предложил заменить хлорид на бромид, не уточнив, что это вещество токсично при длительном употреблении. Мужчина заказал бромистый натрий онлайн и начал принимать его регулярно.
Что такое бромид
Бромистые соединения в начале XX века применялись для лечения бессонницы и тревожности. Но позже выяснилось, что они опасны: могут вызывать так называемый бромизм — хроническое отравление, сопровождающееся неврологическими и психическими нарушениями. В 1980-х бромид практически исчез из медицинской практики, но до сих пор встречается в некоторых ветеринарных препаратах и пищевых добавках.
Как развивались события
Через три месяца после начала приема бромида мужчина поступил в больницу с жалобами на то, что его якобы отравил сосед. У него были паранойя, галлюцинации и сильное возбуждение, он отказывался пить воду, хотя испытывал жажду. Вскоре состояние переросло в острый психоз — он даже пытался убежать из отделения. Пациента госпитализировали в психиатрическое отделение, назначили капельницы и антипсихотики.
Когда его состояние улучшилось, выяснилась причина — хроническое отравление бромидом. Врачи заподозрили бромизм еще на ранней стадии, но подтвердить это смогли только после разговора с пациентом.
Через три недели мужчину выписали, отменив все препараты. В течение двух недель наблюдения его состояние оставалось стабильным.
Опасно доверять советам ИИ в вопросах здоровья
Врачи считают этот случай тревожным сигналом. Он показывает, что ИИ, вроде ChatGPT, способен выдавать советы, вырванные из контекста, и не всегда понимает, в каком именно смысле задан вопрос. Кроме того, ИИ по прежнему выдает «галлюцинации» (придумывает ответы).
В отчете отмечается:
«Хотя такие инструменты, как ChatGPT, могут обеспечить связь между учеными и широкой публикой, ИИ также несет риск распространения информации, вырванной из контекста».
Медицинский эксперт, подчеркивают врачи, никогда бы не рекомендовал замену соли на бромид. И, как добавляет автор публикации:
«Наличие хорошего друга, с которым можно обсудить случайные идеи, должно оставаться неотъемлемой частью жизни, независимо от того, какая у ChatGPT версия или какой нейросетью вы пользуетесь».




