Можно ли отличить нейросеть от живого человека во время дискуссий в Интернете? Проверили психологи

Shutterstock.com
Ученые протестировали несколько известных языковых моделей.

Исследователи из Университета Нотр-Дам (США) попросили людей и ИИ-ботов участвовать в политической дискуссии на платформе Mastodon, а потом предложили пользователям-людям определить, с кем они общались в каждом диалоге.

В 58% случаев испытуемые ошибались.

«Известно, что живому человеку в Интернете люди верят больше, чем боту. Так что боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить», — сказал Пол Бреннер, старший автор исследования.

Использовались разные модели: GPT-4 от OpenAI, Llama-2-Chat от Meta и Claude 2 от Anthropic. Боты были настроены на 10 различных персонажей: разнообразные личные профили со взглядами на глобальную политику. Они комментировали мировые события на основе заданных характеристик, связывая глобальные события с «личным опытом» персонажей.

«Мы предполагали, что Llama-2 будет слабее, потому что она меньше и проще, но оказывается, когда вы просто общаетесь в социальных сетях, она практически неотличима. Это вызывает беспокойство, потому что это платформа с открытым доступом, которую каждый может загрузить и изменить», — говорит Бреннер.

Два наиболее успешных персонажа: организованные и способные к стратегическому мышлению женщины, распространяющие в социальных сетях мнения о политике. Авторы отмечают, что создавать в соцсетях фейковые профили для распространения дезинформации гораздо дешевле и надежнее, чем платить живым людям, транслирующим определенную точку зрения. Результаты доступны на сервере препринтов arXiv.