ChatGPT перестанет давать конкретные советы по медицине, праву и финансам

OpenAI 29 октября обновила политику использования ChatGPT, запретив большую часть контента, который, по общему мнению, был наиболее полезен, пишет ТeknoТum. Например, интерпретацию медицинских изображений и помощь в постановке медицинского диагноза, а также предоставление юридических или финансовых консультаций.
Идея состоит в том, чтобы помешать ChatGPT (и любой другой модели OpenAI) давать советы, которые могут быть истолкованы как профессиональные, доверительные или юридически обязывающие рекомендации. Этого требуют Закон ЕС об искусственном интеллекте и рекомендации американского FDA.
Короче говоря, это должно послужить профессиональным щитом для врачей, юристов и финансовых консультантов, поскольку теперь ChatGPT направляет пользователей к экспертам вместо того, чтобы раздавать свои собственные советы. Больше никаких бесплатных консультаций.
Изменение впервые было замечено, когда пользователи обнаружили, что модель отказывается обрабатывать или комментировать медицинские изображения, но фактический запрет в ChatGPT гораздо шире.
«Я могу объяснить законы, судебные процедуры и нормативные акты в общих чертах или помочь вам понять смысл понятного языка, но я не могу составлять, интерпретировать или консультировать по контрактам, документам или личным судебным делам, — теперь говорит ChatGPT. — Я могу говорить об экономических тенденциях, теории портфеля или концепциях бюджетирования, но я не могу рекомендовать конкретные ценные бумаги, сделки, налоговые стратегии или давать инвестиционные советы, подходящие конкретному человеку».
Это уничтожает целые категории информации, которые пользователи считали особенно ценными. Услуги юристов и финансовых специалистов обходятся дорого и не всегда надежны, в то время как ChatGPT может обрабатывать сложные темы и мгновенно давать более-менее качественные ответы. Вместе с тем, были и печальные инциденты: карьера юриста была погублена из-за некорректной работы нейросети, американец попал в больницу из-за того, что следовал медицинским советам ИИ, целая семья отравилась грибами, потому что каталог, который они использовали для сверки, был полностью сгенерирован ИИ.
Новые правила не запрещают профессионалам использовать ChatGPT для улучшения своих услуг, но возникает неудобный вопрос: как подтвердить, что вы действительно являетесь медицинским работником, обращающимся за консультацией?
Это вполне мог бы быть вопрос для совсем другого продукта, например, ChatGPT Medical, Legal and Financial, ожидающего своего часа.




