ИИ выбирает «друзей и коллег» подобно людям, показал эксперимент

Когда большие языковые модели (LLM) принимают решения о создании связей и дружбе, их поведение в искусственных симуляциях и реальных сетевых контекстах оказывается схожим с человеческим.
Американские специалисты в области сетевого анализа и вычислительных социальных наук разработали методику для изучения взаимодействия множества LLM-агентов при формировании сетей и сравнили их поведение с человеческим. Результаты исследования увидели свет в журнале PNAS Nexus.
Как LLM формируют сетевые связи
Авторы провели симуляции с несколькими LLM, помещенными в сетевую среду. Моделям предлагалось выбрать, с какими узлами (агентами) установить связь, основываясь на информации о количестве их связей, общих соседях и общих атрибутах — например, произвольно назначенных «увлечениях» или «местоположении».
В экспериментах варьировались контекст сети — дружба, работа, сообщества, — объем информации, предоставляемой агентам, а также параметры моделей, такие как температура (параметр декодирования в LLM, регулирующий случайность и разнообразие вывода).
В целом, LLM продемонстрировали склонность соединяться с уже хорошо связанными узлами — так называемое «предпочтительное присоединение». Также модели чаще выбирали узлы с большим числом общих связей — это явление называется «триадной замкнутостью».
Сравнение поведения LLM с человеческим
LLM также проявили гомофилию, то есть предпочтение к узлам со схожими хобби или местоположением, а также хорошо известный по соцсетям эффект «малого мира», когда любые два узла в сети соединены неожиданно короткими цепочками знакомств, часто всего через несколько «рукопожатий».
В сетевых симуляциях, основанных на реальных данных (дружба в соцсетях, рабочие и телекоммуникационные сети), модели LLM сильнее всего ориентировались на гомофилию, затем — на триадную замкнутость и, наконец, на предпочтительное присоединение.
В завершение исследователи провели контролируемый опрос с участием около 100 человек, а затем предложили те же анкеты LLM. Ответы моделей показали высокую степень совпадения с человеческим выбором при установлении связей, хотя решения LLM были более последовательными у каждой модели, чем у людей.
По мнению авторов, эти результаты демонстрируют потенциал LLM как источника синтетических данных там, где использование реальных человеческих данных ограничено из-за соображений приватности (медицина, финансы). Вместе с тем эту особенность моделей следует учитывать при их дальнейшем внедрении в наш реальный мир — во избежание информационного неравенства и опасных предубеждений.




