Социальные роботы учатся взаимодействовать без помощи людей

Новый метод обучения роботов исключает необходимость участия людей, ускоряя и делая процесс масштабируемым.
AA/ABACA/Abaca/East News

Люди больше не контролируют все этапы обучения социальных роботов — теперь у них есть цифровой двойник. Исследователи из Университета Суррея и Гамбургского университета представили на Международной конференции IEEE по робототехнике и автоматизации (ICRA) метод, позволяющий моделировать социальное внимание робота без участия живых добровольцев. Это ускоряет и упрощает разработку систем взаимодействия человека и машины.

Что сделали ученые

Команда создала модель прогнозирования «точки взгляда» — алгоритм, который на основе видеопотока оценивает, где и куда в данный момент будет смотреть человек. Вместо того чтобы собирать десятки часов поведенческих данных в лаборатории с участием добровольцев, их система запускается сразу в программной среде. Для проверки точности алгоритма исследователи использовали два общедоступных набора данных с записями движений глаз и головы добровольцев, взаимодействующих с реальным роботом.

Результаты оказались впечатляющими: человекоподобный робот научился имитировать естественные шаблоны взгляда, оставаясь точным в шумной или динамичной обстановке.

Как отметил доктор Ди Фу, лектор по когнитивной нейробиологии Университета Суррея и соавтор исследования:

«Модель сохраняет высокую точность — она фокусируется на тех же объектах, что и человек, без необходимости постоянного контроля со стороны исследователя».

Социальные роботы — от образовательных ассистентов и домашних помощников до «напарников» в уходе за пациентами — должны распознавать, чем занят собеседник, и вовремя реагировать на невербальные сигналы. Ранее одну лишь систему распознавания взгляда испытывали на десятках добровольцев, что требовало больших ресурсов и времени. Новый метод позволяет проводить корректировку и отладку «в голове» робота с помощью виртуального моделирования:

 «Использование роботизированного моделирования вместо ранних испытаний на людях — важный шаг вперед. Мы сможем проверять и улучшать социальные алгоритмы в масштабируемом формате, а затем уже доводить систему до взаимодействия с реальными людьми», — объясняет доктор Фу.

Такая схема быстро выявляет ошибки и узкие места в модели внимания и снижает зависимость от дорогостоящих полевых испытаний. После этапа «цифровой валидации» автоматическая система может быть перенесена на физического робота: человекоподобный дроид научится поворачивать голову, жестикулировать и начинать диалог именно тогда, когда на это укажет взгляд собеседника.

Как работает искусственное моделирование

  1. Вначале программа воссоздант виртуальную комнату, в которой «обитает» и человек, и робот.
  2. Алгоритм прогнозирует траекторию взгляда виртуального человека на основе изображения экрана.
  3. Предсказанная карта «важных точек» (области на экране, куда смотрит робот) автоматически сверяется с записью настоящих движений глаз из баз ICRA.
  4. В конце ошибки в прогнозах анализируются и служат сигналом к корректировке параметров модели, которые она совершает на ходу.

Команда планирует расширить метод на более сложные сценарии: распознавание не только взгляда, но и эмоциональных состояний или невербальных жестов в групповых ситуациях.

Подписывайтесь и читайте «Науку» в Telegram