Открытие: нейросети самостоятельно наладили отношения, похожие на человеческие

SciAdv: взаимодействие ИИ-агентов порождает спонтанные социальные конвенции
ИИ-агенты научились договариваться между собой — совсем как люди.
Ole.CNX/Shutterstock/FOTODOM

Искусственный интеллект может спонтанно вырабатывать социальные конвенции, подобные человеческим, обнаружили ученые. Это открытие свидетельствует о возросшей самостоятельности ИИ.

Исследование провели совместно Лондонский университет Сити и Сент-Джорджа и Копенгагенский университет информационных технологий, его результаты обнародованы журналом Science Advances. Оно показало, что когда ИИ-агенты на основе больших языковых моделей (LLM), такие как ChatGPT, взаимодействуют в группах без вмешательства извне, они начинают перенимать лингвистические формы и социальные нормы так же, как это делают люди в процессе общения.

«Большинство исследований до сих пор изучали LLM изолированно, но в реальном мире системы ИИ все чаще будут включать множество взаимодействующих агентов. Мы хотели выяснить: могут ли эти модели координировать свое поведение, формируя конвенции — строительные блоки общества? Ответ — да, и их коллективные действия нельзя свести к индивидуальным», — рассказал математик Ариэль Флинт Эшери из Лондонского городского университета.

В исследовании использовались группы LLM-агентов численностью от 24 до 100. В каждом эксперименте два случайно выбранных агента должны были выбрать «имя» (букву или строку символов) из предложенных вариантов. Если оба агента выбирали одно имя, они получали «вознаграждение», а при разных выборах — «штраф» с демонстрацией варианта партнера.

Несмотря на то, что агенты не знали о существовании группы и имели доступ только к своим последним взаимодействиям, в популяции спонтанно возникла общая система именования без предопределенного решения — подобно нормам человеческого общения.

Профессор науки о сложных системах Андреа Баронкелли сравнил это явление с возникновением новых слов в обществе.

«Агенты не копируют лидера. Они активно пытаются координироваться исключительно в парах. Каждое взаимодействие — это попытка договориться об обозначении без глобального видения, — пояснил он. — Это как слово "спам". Никто его формально не определял, но благодаря повторяющимся попыткам согласования оно стало универсальным термином для нежелательной почты».

Кроме того, ученые зафиксировали возникновение коллективных предубеждений, не сводимых к индивидуальным предпочтениям агентов. В финальном эксперименте небольшие группы ИИ-агентов смогли направить большую группу к принятию новой системы именования. Это свидетельствует о динамике критической массы, когда небольшая, но решительная группа может вызвать быстрый сдвиг в поведении общества после достижения определенного порога — как и у людей.

По мнению Баронкелли, исследование «открывает новые горизонты для изучения безопасности ИИ, демонстрируя глубину последствий появления этого нового вида агентов, которые начали взаимодействовать с нами и будут формировать наше будущее».

«Понимание их работы — ключ к гармоничному сосуществованию с ИИ, а не подчинению ему. Мы вступаем в мир, где ИИ не просто говорит — он ведет переговоры, согласовывает и иногда оспаривает общие нормы поведения, совсем как мы», — заключил он.

Подписывайтесь и читайте «Науку» в Telegram