Скандал с участием ChatGPT: юрист подготовился к суду с помощью нейросети, а та ему соврала

Shutterstock
Адвокат не проверил факты, предложенные искусственным интеллектом.

У юриста из Нью-Йорка возникли проблемы после того, как он представил юридическое исследование, созданное чат-ботом ChatGPT, сообщает ВВС.

Во время судебного иска против авиакомпании в связи с предполагаемыми телесными повреждениями адвокаты истца подготовили записку, со списком нескольких дел, которые должны были быть использованы в качестве примера судебных прецедентов. К сожалению, как позже было признано в показаниях под присягой, шесть дел были признаны судом «никогда не существовавшими».

«Исследование» было составлено Стивеном А. Шварцем, адвокатом с более чем 30-летним опытом работы. Шварц заявил в письме под присягой, что раньше не использовал ChatGPT для юридических исследований и «не знал о возможности того, что его содержание может быть ложным».

Скриншоты, которые были прикреплены к разбирательству, показывали, что адвокат спрашивал чат-бота: «Является ли Варгезе реальным делом». На что чат-бот ответил: «Да». А когда юрист задал ChatGPT вопрос об источниках, нейросеть ответила: «В базах данных юридических исследований, таких как Westlaw и LexisNexis». На вопрос «Являются ли другие случаи, которые вы предоставили, фальшивыми», чат-бот ответил: «Нет».

Какими бы продвинутыми ни казались чат-боты, они все же склонны к «галлюцинациям» — совершенно связно звучащим ответам, которые никоим образом не связаны с реальным миром.

Адвокат написал в объяснении, что он «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнительного правового исследования», и клянется «никогда не делать этого в будущем без абсолютной проверки его подлинности». Слушание этого дела о ChatGPT предстоит 8 июня.