OpenAI представил миру GPT-4 — языковую нейросеть нового поколения
После нескольких месяцев слухов и спекуляций OpenAI презентовал GPT-4: последнюю в своей линейке языковых моделей ИИ, которые используются в таких приложениях, как ChatGPT, пишет Guardian. Новая модель доступна через ChatGPT Plus, ежемесячную подписку за 20 долларов, и в чат-боте Microsoft Bing. OpenAI заявляет, что уже сотрудничает с рядом компаний для интеграции GPT-4 в их продукты, включая Duolingo, Stripe и Khan Academy.
Компания утверждает, что модель «более творческая и совместная, чем когда-либо прежде» и «может решать сложные задачи с большей точностью». Она может анализировать при запросе как текст, так и изображения, хотя отвечать пока умеет только текстом. OpenAI также предупреждает, что системы сохраняют многие из проблем более ранних языковых моделей, в том числе тенденцию выдумывать информацию (или, как они выразились, «галлюцинировать») и способность генерировать агрессивный и вредоносный текст.
OpenAI отмечает также, что различие между GPT-4 и его предшественником GPT-3.5 «тонко». При этом целый ряд тестов новая версия проходит гораздо лучше. Способность модели анализировать текст и изображение одновременно позволяет ей интерпретировать более сложные входные данные.
Подобные модели искусственного интеллекта обучаются на огромных наборах текстовых данных, большая часть которых взята из Интернета, для поиска статистических закономерностей. Затем эти шаблоны используются для предсказания того, какое слово следует за другим. Это относительно простой механизм, но конечным результатом являются гибкие системы, которые могут генерировать, обобщать и перефразировать тексты, а также выполнять другие задачи, такие как перевод или генерация программного кода.
Как и предполагалось, широкая доступность этих языковых моделей ИИ создала проблемы. Система образования все еще приспосабливается к существованию программного обеспечения, которое пишет сочинения и дипломы. Литературные сайты, такие как Stack Overflow и научно-фантастический журнал Clarkesworld, были вынуждены закрыть заявки из-за наплыва контента, созданного ИИ. Некоторые компании уже уволили специалистов по ведению соцсетей. Но эксперты считают, что вредные последствия все же оказались меньше, чем предполагалось.
В OpenAI, говоря о GPT-4, подчеркнули, что система прошла шестимесячный курс обучения технике безопасности и что по результатам тестов у нового алгоритма «на 82 % меньше вероятность отвечать на запросы о запрещенном контенте и на 40 % выше вероятность предоставления фактических данных». Однако это не означает, что система не допускает ошибок и не выводит вредоносный контент. Например, Microsoft сообщила, что ее чат-бот Bing все время работал на GPT-4. Многие пользователи смогли сломать фильтры Bing, заставив бота давать опасные советы, угрожать пользователям и выдумывать информацию.
Неуравновешенность, эгоизм и просто вранье? — Почему не стоит доверять чат-ботам
Названы профессии, которые уже не будут прежними после появления ChatGPT
Текстовую нейросеть научили «думать» еще лучше, чтобы избавить от расизма и сексизма
ChatGPT прошел тест по теории разума и показал уровень 9-летнего ребенка