Может ли искусственный интеллект испытывать «боль» — эксперимент

ИИ иногда предпочитал проиграть, но избежать боли — что крайне странно для программы с чисто логическим «мышлением».
Freepik.com

Исследователи из Google DeepMind и Лондонской школы экономики провели первое исследование, размещенное в препринте arXiv, где изучали, могут ли системы ИИ проявлять характеристики, свойственные живым организмам, с помощью текстовой игры. В этом эксперименте модели ИИ выбирали между вариантами с высокой оценкой под угрозой боли или низкой оценкой, но приятным опытом.

Исследование включало изучение девяти моделей ИИ с помощью текстовой игры, в которой предлагался выбор между вариантами: победа в условиях боли или удовольствия, но с возможным проигрышем. В некоторых вариантах модель могла отказаться от награды, чтобы избежать боли. Это поведение удивило исследователей, потому что оно показывает, что ИИ — не просто механические инструменты. Например, модель Gemini 1.5 Pro последовательно выбирала меньшее вознаграждение, если риск боли становился выше.

Ранее исследования ИИ основывались на самоотчетах — когда система сама сообщала о своих «чувствах». Но этот подход вызвал критику, так как ответы могли быть просто запрограммированными. Новый метод сосредоточился на анализе поведения моделей, чтобы лучше понять, как они реагируют на сложные ситуации и стимулы. Подобный метод часто используют при исследованиях животных: наблюдают за их реакцией на различные стимулы, чтобы понять уровень их чувствительности.

Джонатан Бирч, один из авторов исследования, отметил, что это исследование не подтверждает наличие сознания у ИИ, но показывает, как такие системы обрабатывают информацию и, возможно, пытаются имитировать чувства. Эти знания могут помочь в разработке этических норм и пересмотре социальных и правовых аспектов использования ИИ.