Неуравновешенность, эгоизм и просто вранье? — Почему не стоит доверять чат-ботам

Midjourney
Или пока не стоит. Эксперт по искусственному интеллекту размышляет о будущем нейросетей — смогут ли они окончательно сформировать мир постправды?

Идет гонка за преобразование поиска. И Microsoft только что забила автогол со своим новым поисковым чат-ботом Bing, который, помимо других тревожных результатов, пугал первых пользователей угрозами смерти.

Поисковые чат-боты — это инструменты на базе искусственного интеллекта, встроенные в поисковые системы, которые напрямую отвечают на запрос пользователя, а не предоставляют ссылки на возможный ответ. Пользователи также могут вести с ними довольно содержательные беседы.

Технология обещает упростить поиск. Больше не нужно пролистывать страницы результатов, пытаясь собрать воедино ответ на свой вопрос. Вместо этого чат-бот синтезирует для вас правдоподобный ответ. Например, вы можете попросить стихотворение к 90-летию вашей бабушки в стиле определенного поэта и получить в ответ какой-нибудь шуточный стих.

Партнерство технологического гиганта Microsoft с OpenAI на сумму 10 миллиардов долларов США предоставляет первому эксклюзивный доступ к ChatGPT, одному из последних и лучших чат-ботов. Так почему же все идет не по плану?

Bing сходит с ума

Фото: Midjourney
Bing предлагал выйти замуж журналисту New York Times

В течение 48 часов после выпуска миллион человек присоединились к списку ожидания, чтобы попробовать новую фишку.

Google ответил собственным объявлением, продемонстрировав поисковый чат-бот с величественным названием Bard. Демонстрация Google стала пиар-катастрофой.

На корпоративном мероприятии Bard дал неправильный ответ на вопрос, и цена акций дочерней компании Google, Alphabet, резко упала. Инцидент уничтожил более 100 миллиардов долларов США от общей стоимости компании.

С другой стороны, для Microsoft все выглядело хорошо. Так продолжалось до тех пор, пока первые пользователи Bing не начали сообщать о своем опыте. И некторые были готовы определять поведение чат-бота как у сумасшедшего. То есть, иногда он работает хорошо. А иногда — мягко говоря странно. Например, он угрожал убить профессора Австралийского национального университета. В другом случае, предлагал брак журналисту New York Times. Или попытался обмануть одного пользователя, предложив думать, что на дворе еще 2022 год.

Это обнажает фундаментальную проблему с чат-ботами: они обучаются, вливая в себя значительную часть Интернета.

Это может включать всю Википедию, весь Reddit, большую часть социальных сетей и новостей. Они работают как автозаполнение на вашем телефоне, которое помогает предсказать следующее наиболее вероятное слово в предложении. Из-за своего масштаба чат-боты могут завершать целые предложения и даже абзацы.

Но они по-прежнему отвечают тем, что вероятно, а не тем, что верно.

Добавлены фильтры, чтобы предотвратить повторение оскорбительного или незаконного контента в Интернете, но их легко обмануть.

Еще одно правило, которое раскрыл сам ИИ, хотя и не должен был, заключается в том, что он должен «избегать расплывчатости, споров или ответов не по теме». Тем не менее, Кевин Руз, журналист New York Times, на котором чат-бот хотел жениться, описал его как

«капризного, маниакально-депрессивного подростка, против своей воли застрявшего внутри второсортной поисковой системы».

Моя теория относительно того, почему Сидней может вести себя таким образом — и я повторяю, что это только теория, поскольку мы не знаем наверняка — состоит в том, что Bing не построен на чат-боте OpenAI GPT-3 (который поддерживает популярный ChatGPT). Скорее всего, она может быть построена на еще не вышедшей GPT-4.

Считается, что GPT-4 имеет гораздо больше параметров по сравнению с предыдущей версией. GPT-4, вероятно, будет намного более способным.

Удивительно, но Microsoft не проявила большой озабоченности. Компания опубликовала сообщение, что 71% первых пользователей в 169 странах одобрили чат-бот. И, в отличие от Google, цена акций Microsoft еще не упала и пользователи все еще стремятся попробовать Bing.

Когда новизна спадает

Фото: Midjourney

В истории есть еще одна интрига, и она касается того, что мы будем считать правдой. Если поисковые чат-боты взлетят (что кажется вероятным), но продолжат функционировать так же (что также кажется вероятным), «правда» станет еще более неосязаемой концепцией.

Интернет полон фейковых новостей, теорий заговора и дезинформации. Стандартный поиск, по крайней мере, дает нам возможность узнать правду. Но что, если нашим «надежным» поисковым системам больше нельзя доверять?

Кроме того, сложно не вспомнить Tay — чат-бота Microsoft с искусственным интеллектом 2016 года, который обратился к расизму и ксенофобии в течение дня после запуска. Он, казалось, включил в себя некоторые из худших человеческих черт.

Новые технологии должны, в первую очередь, не приносить вред человеку. Модели, лежащие в основе чат-ботов, могут становиться все сложнее, опираясь на все больше и больше данных, но само по себе это не улучшит их производительность. Трудно сказать, где мы окажемся, если не сможем построить более эффективные фильтры.

Тоби Уолш, профессор наук об искусственном интеллекте Университета Нового Южного Уэльса (Австралия) для Conversation.