Для автономных машин создана «система доверия»

Если эта идея приживется, она может стать базовым принципом для будущих «умных» городов и транспорта.
Harvard John A. Paulson

По мере того как беспилотные автомобили, роботы-доставщики и «умная» инфраструктура выходят из тестовых зон в реальную жизнь, возникает неочевидная проблема. Машины должны постоянно обмениваться данными — но как понять, каким из них можно верить? Об этом говорится в исследовании ученых Гарвардской школы инженерных и прикладных наук, опубликованном в Proceedings of the IEEE.

Почему обычной кибербезопасности уже недостаточно

Такие системы называют киберфизическими. Это значит, что цифровые решения напрямую влияют на физический мир. Ошибка здесь — не просто сбой программы, а потенциальная авария.

Классическая защита строится на принципе «кто получил доступ — тот внутри системы». Но в мире автономных машин этого мало. Даже «свой» участник сети может оказаться неисправным или взломанным и начать рассылать ложные сигналы.

«Киберфизические системы станут очень распространенными. Вопрос в том, как мы можем защитить эти системы? Как мы можем гарантировать их устойчивость в реальном мире?», — отмечает соавтор работы Гил. 

Как работает «кибердоверие»

Предложенная модель получила название cy-trust. Ее идея проста, но нетривиальна. Каждое устройство оценивает входящую информацию по шкале доверия — от нуля до единицы. Это число определяет, насколько сильно данные повлияют на решение.

Иначе говоря, машина не просто принимает сигнал, а «сомневается» в нем. Такой подход ближе к человеческому поведению, чем к классическим алгоритмам.

«Существует явная параллель между концепцией cy-trust и знакомым видом психологического доверия. У вас нет полной информации, но решения принимать все равно нужно», — объясняет Гил. 

Проверка через собственные «чувства»

Чтобы не полагаться на чужие данные, система сверяет их с тем, что видит сама. Для этого используются камеры, лидары, радары и GPS. Если поступившая информация противоречит реальным наблюдениям, уровень доверия к источнику падает.

Дополнительно применяются методы анализа сигналов, которые помогают понять, не маскируется ли один злоумышленник под нескольких участников сети. Это важно, потому что такая атака может выглядеть как «мнение большинства».

Что показали эксперименты

Модель протестировали на группах взаимодействующих роботов. В систему специально «встроили» агентов, которые отправляли ложные данные или имитировали несколько источников сразу.

Результат оказался показателен. Роботы, использующие cy-trust, постепенно «разоблачали» подозрительные сигналы, снижали к ним доверие и фактически игнорировали. При этом вся система продолжала работать стабильно, несмотря на попытки ее нарушить.

Почему это важно

В сетях автономных машин слабое звено может повлиять на всех. Например, один взломанный автомобиль способен «убедить» другие машины выбрать опасный маршрут. В спасательных операциях ошибка робота может привести к пропущенным зонам и реальным рискам для людей.

Именно поэтому вопрос доверия здесь становится критическим. Речь идет не о данных как таковых, а о последствиях в физическом мире.

Авторы подчеркивают, что одних технологий недостаточно. Чтобы такие системы действительно работали безопасно, потребуется адаптация правил и стандартов. Новый подход — это попытка научить машины действовать в условиях неопределенности, как это делают люди. Не верить слепо, а проверять, сравнивать и делать выводы. 

Подписывайтесь и читайте «Науку» в MAX