Исследование показало, что ИИ усиливает привычку людей все усложнять

Люди при принятии решений часто действуют по шаблону, известному как когнитивное искажение. Одним из них является «склонность к усложнению» — склонность добавлять новые, ненужные элементы при решении задач вместо того, чтобы упростить ситуацию удалением лишнего. Например, при написании отчета человек может включить дополнительные абзацы, хотя удаление ненужных частей оказалось бы эффективнее.
Проверка когнитивных привычек у ИИ
Исследователи из Тюбингенского университета и Института наук медиа имени Лейбница изучили, проявляют ли искусственные интеллектуальные системы такую же склонность. В статье, опубликованной в Communications Psychology, они отметили, что большие языковые модели (LLM), включая GPT-4 и GPT-4o, способны перенимать «эффект добавления», характерный для текстов, на которых они обучались.
«Генеративные системы ИИ, особенно большие языковые модели, влияют на человеческое принятие решений. Поэтому важно понимать, как когнитивные искажения воспроизводятся или усиливаются в этих системах.
Мы сравнивали, как люди и модели GPT-4 и GPT-4o решают пространственные и текстовые задачи, чтобы увидеть, насколько они склонны к добавлению лишнего», — пишут Лидия Улер, Верена Джордан и коллеги.
Методика эксперимента
Исследование включало два этапа. В первом участвовали 588 человек и 680 реакций GPT-4. Во втором — 751 участник и 1080 ответов GPT-4o. Задания делились на два типа:
- Пространственные, где нужно было размещать фигуры или элементы в определенном порядке.
- Лингвистические, где участникам нужно было выбирать или создавать тексты по инструкции.
Иногда добавление информации помогало лучше справиться с задачей, а иногда эффективнее было удалять лишнее. Также менялась эмоциональная окраска инструкций — нейтральная или положительная.
«Мы манипулировали эффективностью решения и эмоциональной окраской инструкций. В обоих исследованиях выявилась общая склонность к сложению, но у LLM она проявлялась сильнее, чем у людей», — поясняют авторы.
Результаты и наблюдения
Выводы показали, что и люди, и модели склонны добавлять информацию, даже если удаление было бы рациональнее. При этом у людей смещение ослаблялось, если вычитание было очевидно более эффективным, а у моделей GPT-4 оно усиливалось.
В текстовых заданиях GPT-4o вел себя похоже на людей, но в пространственных задачах модель не меняла стратегию в зависимости от того, что было эффективнее. Эмоции в инструкциях тоже влияли лишь частично: позитивный тон заставлял добавлять больше деталей в текстах, но на пространственные задачи это никак не влияло
Результаты показывают, что большие языковые модели могут перенимать человеческие предубеждения и даже усиливать их в определенных ситуациях. Модели, обученные на текстах людей, могут склонны добавлять лишнюю информацию, создавая более сложные решения, чем необходимо.
«Эти данные подтверждают, что предвзятость к сложению передается LLM, и подчеркивают необходимость дальнейших исследований механизмов этого явления у людей и ИИ», — пишут авторы.
Понимание подобных особенностей важно не только для разработки более надежных систем ИИ, но и для изучения того, как когнитивные предубеждения влияют на человеческие решения.









