Устройство для чтения мыслей: создан имплант, передающий произнесенные в уме слова

Shutterstock
Нейроинтерфейсы забираются все дальше в мозг.

Ученые разработали мозговые импланты, которые могут декодировать внутреннюю речь — идентифицировать слова, которые человек произнес в уме, не шевеля губами и не издавая ни звука. Научная статья вышла в Nature Human Behavior, о ней рассказывает служба новостей издательства. Пока технология находится на ранней стадии — она работает лишь с несколькими словами, а не с фразами или предложениями. Однако авторы уверены, что в будущем она может найти клиническое применение.

Существующие устройства с интерфейсом «мозг-компьютер» интерпретируют речь, которая хотя бы частично озвучена или имитируется. Описанное в новом исследовании — первое, где слова, произнесенные полностью внутри человека, расшифровываются путем записи сигналов от отдельных нейронов мозга в режиме реального времени.

«Вероятно, на данный момент это самое продвинутое исследование по расшифровке мысленной речи», — говорит Сильвия Марчесотти, нейроинженер из Женевского университета.

Исследователи имплантировали массивы крошечных электродов в мозг двух человек с травмами спинного мозга. Они поместили устройства в супрамаргинальную извилину, область мозга, которая ранее не исследовалась при декодировании речи. Эта часть мозга активна при мысленной речи и таких задачах, как определение рифмы слов.

Ученые обучили интерфейс шести словам (поле боя, ковбой, питон, ложка, плавание и телефон) и двум бессмысленным псевдословам (нифзиг и биндип). В течение трех дней команда просила каждого участника представить, как он произносит слова, показанные на экране, несколько раз каждое слово.

У первого участника интерфейс уловил отдельные нейронные сигналы для всех слов и смог идентифицировать их с точностью 79%. Но у второго участника точность декодирования составила всего 23%. Эти результаты могут пролить свет на способы, которыми люди обрабатывают внутреннюю речь. Возможно, у разных людей это происходит очень по-разному.

Авторы также обнаружили, что 82–85% нейронов, которые были активны во время внутренней речи, также были активны, когда люди озвучивали слова. Но некоторые нейроны были активны только во время внутренней речи или по-разному реагировали на отдельные слова в разных задачах.

Исследователям не удалось также определить, представляет ли мозг внутреннюю речь фонетически (по звуку) или семантически (по значению). Остается также вопрос, можно ли распространить эту технологию на людей, потерявших способность говорить, учитывая, что оба участника исследования здоровы и имеют неповрежденные речевые области мозга. Следующим шагом исследователей станет проверка, сможет ли интерфейс различать буквы алфавита.