Расчеты показали: искусственный суперинтеллект нельзя контролировать

Shutterstock
Программисты не понимают, как ИИ этому научился.

Ученые из Испании, Германии, Чили и США пришли к выводу, что, если появится суперинтеллект, мы не сможем его контролировать.

Статья опубликована в Journal of Artificial Intelligence Research, коротко о ней сообщает Science Alert.

Суперинтеллект — это потенциальное состояние искусственного интеллекта (ИИ), при котором программа превосходит самых умных из людей. Для того чтобы контролировать сложный ИИ, который недоступен нашему пониманию, нужно создать и проанализировать его модель. Но нельзя сделать симуляцию, если неясно, как такой ИИ работает.

Нельзя задать правило «не причинять вреда людям», если мы не знаем, какие сценарии может придумать ИИ. Если компьютер на голову выше, чем программисты, уже невозможно ставить границы, считают авторы статьи. Они добавляют, что суперинтеллект может использовать потенциально непонятные человеку способы достижения целей.

Размышления исследователей касаются проблемы остановки, которую поставил Алан Тьюринг в 1936 году. Суть проблемы в том, что нужно предсказать, найдет ли программа ответ на вопрос и остановится или же будет работать бесконечно. Тьюринг доказал, что общего алгоритма решения проблемы нет. Поэтому мы не знаем, найдет ли решение программа, которая призвана остановить опасный ИИ.

Ученые говорят, что ни один алгоритм не может обучить ИИ этике или попросить не уничтожать мир. Но есть альтернатива: ограничить возможности суперинтеллекта. Например, отрезать его от частей интернета или определенных сетей. Другие исследователи считают, что это сузит сферу применения ИИ: «Зачем создавать суперинтеллект, если не для решения задач, с которыми не справляется человек?»

Если дальше развивать ИИ, мы можем даже не заметить, как суперинтеллект вышел из-под контроля.

«Суперинтеллектуальная машина, которая контролирует мир, звучит как научная фантастика, — сказал компьютерный ученый Мануэль Кебриан из Института развития человека им. Макса Планка. — Но уже существуют машины, которые самостоятельно выполняют некоторые важные задачи, при этом программисты не понимают, как они этому научились. Поэтому встает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества».