Чат-боты с ИИ повлияли на мнение избирателей в эксперименте

Короткое общение с чат-ботом на основе большой языковой модели (LLM) способно изменить политические предпочтения избирателей. К такому выводу пришли ученые Корнеллского университета (США) в двух работах. Эксперименты проводились в США, Канаде, Польше и Великобритании. Авторы отмечают, что потенциал ИИ влиять на выборы вызывает серьезную обеспокоенность.
Результаты в разных странах
В исследовании, опубликованном в Nature, ученые попросили чат-ботов убедить участников изменить отношение к кандидатам на выборах. Добровольцы вели текстовый диалог с ботом, поддерживающим одну из сторон, после чего фиксировали изменения мнений и намерений голосовать. Эксперименты прошли трижды: перед выборами президента США 2024 года, федеральными выборами в Канаде и выборами президента Польши в 2025 году.
Среди 2300 американских участников чат-бот, агитировавший за Камалу Харрис, сдвинул позицию вероятных сторонников Дональда Трампа на 3,9 пункта по 100-балльной шкале — примерно в четыре раза заметнее, чем эффект традиционной политической рекламы. Модель, поддерживавшая Трампа, повлияла на электорат Харрис на 1,51 пункта. В Канаде и Польше влияние оказалось сильнее: среди оппозиционных избирателей изменения достигали 10 пунктов.
По словам ведущего автора исследования Дэвида Рэнда, убеждающая сила ИИ связана не с манипуляциями, а с объемом аргументов: модели приводят множество фактических заявлений в поддержку своей позиции.
Когда исследователи ограничили использование фактов, убедительность резко снизилась. При проверке утверждений выяснилось, что, в среднем, чат-боты давали в основном корректную информацию, однако модели, агитировавшие за правых кандидатов, чаще допускали неточности.
Знание об ИИ не помогает
Во второй статье, опубликованной в Science, ученые исследовали, что делает ИИ наиболее эффективным в убеждении. В эксперименте участвовали почти 77 тысяч жителей Великобритании, обсуждавших с моделями более 700 политических вопросов.
Выяснилось, что большие модели оказываются убедительны, но максимальный эффект достигается при дополнительном обучении на фактических аргументах. Оптимизированная модель могла изменить позицию оппонента на 25 пунктов. При этом точность заявлений таких моделей снижалась: по мере исчерпания корректных данных они начинали генерировать недостоверные утверждения.
Исследователи подчеркивают, что понимание механизмов влияния ИИ важно для предотвращения злоупотреблений и регулирования его использования в политической коммуникации. Во всех экспериментах участники знали, что взаимодействуют с искусственным интеллектом, и были проинструктированы после завершения диалога.
Рэнд отмечает, что значимый эффект возможен только при добровольном и длительном взаимодействии с чат-ботами — «высокой планке» вовлеченности. Тем не менее, он уверен, что ИИ станет заметным инструментом в политических кампаниях. По мнению ученого, задача ближайших лет — выработать механизмы ограничения вреда и научить людей распознавать и критически оценивать политические сообщения, созданные моделями искусственного интеллекта.














