Мы бессознательно подстраиваем речь под собеседника, обнаружил психолингвист

В экспериментах он определил, насколько похожими становятся голоса и манера речи, — и объяснил, почему.
Billion Photos/Shutterstock/FOTODOM

С кем бы мы ни разговаривали — мы стараемся подстроить свою речь под собеседника, так, чтобы голоса звучали более похоже. Но — до определенного предела.

Отчасти это следствие адаптации слухового восприятия, полагает психолингвист Орхун Улушахин, которому предстоит защита диссертации на эту прелюбопытнейшую тему в Неймегенском университете Радбода.

«В каком-то смысле мы слушаем каждого человека "новыми" ушами, потому что все говорят по-разному», — объясняет он.

Нет двух людей, которые звучали бы одинаково. Когда одно и то же слово произносит пятилетняя девочка или восьмидесятилетний старик, — это две большие разницы. Как слушателям, нам постоянно приходится иметь дело с этими различиями в повседневной жизни. Поэтому наш мозг вносит корректировки, специфичные для каждого отдельного говорящего. Таким образом, независимо от того, говорит ли человек быстро или медленно, высоким или низким голосом, с каким-то диалектом или иностранным акцентом — мы быстро адаптируемся, чтобы понять его.

Как выяснил Улушахин, этот механизм влияет не только на то, как мы слушаем, но и на то, как мы говорим.

«То, что мы знаем о манере речи человека, влияет на то, как мы сами говорим, — утверждает он. — Во время разговора люди слегка корректируют свой голос, делая его акустически более похожим на голос собеседника».

Более высокий или низкий тон

В различных экспериментах Улушахин предлагал испытуемым слушать записанные голоса и повторять их. В одном из тестов людей просили повторить предложение в том же темпе, что и записанный голос. При этом анализировалась не только синхронность речи, но и высота тона. Люди, которые слышали предложение более высоким тоном, сами говорили выше, и наоборот, при низком тоне — ниже.

Примечательно, что этот эффект был слабее, когда испытуемые слушали определенный голос в течение более длительного времени. Например, они слушали относительно высокий женский голос на протяжении 20 минут. Затем им нужно было повторить предложение, сказанное тем же женским голосом, но более низким тоном. В этом случае люди не старались сильно понизить тон, что дало основания предположить приоритет накопленной до этого информации о говорящем.

Этот результат показывает, как наши системы восприятия и воспроизведения речи используют одни и те же ресурсы мозга.

«То, что вы знаете о манере речи человека, влияет не только на то, как вы слушаете, но и на то, как вы говорите сами. Языковая сеть в нашем мозге даже больше и динамичнее, чем мы думали. Почти все левое полушарие нашего мозга задействовано производстве речевой продукции, но мы не можем точно определить, где именно в этих обширных областях мы формируем слова или управляем движением губ. Это исследование показывает, что на процессуальном уровне слушание и говорение — не совершенно разные, а наоборот, тесно взаимосвязанные операции», — говорит Улушахин.

Распознавание слов

В другом эксперименте он просил людей повторить слово, тонко модифицированное акустически. Например, слово «beterschap» (пожелание «поправляйся» на голландском) становилось больше похожим на «beuhterschap». В ответ участники не меняли свое произношение.

«Мы просто слышим привычное "beterschap", хотя на самом деле оно звучит чуть по-другому. Мозг выбирает наиболее вероятный вариант, тот, который он уже знает. Вот почему мы произносим слово так же, как и обычно. Так что у этих адаптивных процессов тоже есть четкие пределы», — объясняет исследователь.

Сейчас он разрабатывает вычислительную модель, имитирующую человеческое распознавание слов путем извлечения слов из предложения и адаптации к разным говорящим.

«Для одного голоса модель должна интерпретировать звук как "b", в то время как для кого-то другого ей, возможно, придется интерпретировать точно такой же звук как "p", потому что эти два человека произносят эти звуки по-разному», — уточняет психолингвист.

Свою цель он видит в том, чтобы создать модель, которая ошибается так же, как люди, а не вовсе свободна от ошибок, к чему стремятся технологические компании. «В этом и заключается задача. Надеюсь, это поможет еще лучше понять наш мозг», — заключил ученый.

Подписывайтесь и читайте «Науку» в Telegram