Персонализация контента создает иллюзию компетентности — психологи

Новое исследование, опубликованное в Journal of Experimental Psychology: General, показало, что алгоритмы персонализации на онлайн-платформах могут мешать обучению. Результаты исследования показывают, что, когда системы адаптируют контент под поведение пользователей, это может формировать предвзятое восприятие темы и повышать уверенность в своих неточных знаниях.
Ранее исследования персонализации в основном фокусировались на том, как такие системы укрепляют существующие убеждения, например, политические взгляды. Этот феномен известен как «информационный пузырь» (или «пузырь фильтров»). Целью новой работы было изучение того, как алгоритмы персонализации влияют на базовые когнитивные процессы, когда человек учится чему-то новому, например, изучает иностранное кино или научную концепцию. Исследователи пытались понять, не ограничивает ли этот механизм восприятие новой информации.
Для проверки гипотезы было набрано 200 участников. Им предлагалось научиться классифицировать «инопланетян» — вымышленных существ, напоминающих кристаллы, — основываясь на шести визуальных признаках.
В эксперименте сначала была фаза обучения, когда участники исследовали характеристики инопланетян. Одной группе предоставлялся случайный набор признаков, другая группа выбирала категории для изучения самостоятельно, а третья — использовала персонализированные алгоритмы, которые отслеживали их первоначальный выбор и предлагали схожие элементы для дальнейшего обучения. Алгоритмы многих соцсетей и сайтов знакомств работают по тому же принципу и предлагают материал, основанный на предыдущих выборах пользователя.
Алгоритмы и восприятие реальности
Результаты показали, что участники, обучавшиеся с помощью персонализированных алгоритмов, выбирали гораздо меньше признаков и продолжали концентрироваться на тех характеристиках, которые алгоритм считал приоритетными. Они становились все более ограниченными в выборе, игнорируя другие важные аспекты. Это сужение фокуса привело к искажению представлений о предмете.
При дальнейших тестах на категоризацию инопланетных существ участники из группы с персонализированными рекомендациями ошибались чаще, чем те, кто учился без вмешательства алгоритма. При этом они демонстрировали высокую уверенность в своих ошибочных ответах, особенно по отношению к новым категориям, с которыми они не сталкивались ранее. Это говорит о разрыве между реальными и воспринимаемыми знаниями.
Исследователи отметили, что такие алгоритмы могут воздействовать на восприятие реальности и в более сложных контекстах, например, в потреблении новостей или в образовательных приложениях.
Результаты показывают, что алгоритмы персонализации, оптимизируя контент для максимальной вовлеченности, могут случайно ухудшать точность знаний. Это открытие поднимает вопросы о том, как структура цифровых платформ может влиять на познавательные процессы и восприятие мира пользователями.




