Анонсирована новая нейросеть: она сможет снять мини-блокбастер по вашему описанию

Она знает законы физики, но иногда у нее «хромает» логика.
Shutterstock

Компания OpenAI представила новый продукт — сервис для создания видеороликов по текстовому описанию. Сообщение опубкликовано на сайте разработчиков.

«Представляем Sora, наш инструмент для преобразования текста в видео. Sora может создавать видеоролики продолжительностью до минуты, сохраняя при этом визуальное качество и следуя указаниям пользователя. Sora может создавать сложные сцены с несколькими персонажами, определенными типами движения и точными деталями объекта и фона. Модель учитывает не только то, что пользователь запросил в командной строке, но и понимает то, как эти вещи существуют в физическом мире», — говорится в сообщении.

Среди важных функций - возможность сделать нарезку кадров с нескольких ракурсов, в которых будут сохраняться персонажи и стилистика. Нейросеть обладает «глубоким пониманием языка», что позволяет ей точно интерпретировать заданный пользователем текст.

Однако, признают разработчики, пока есть и слабые места.

«Могут возникнуть проблемы с точным моделированием физики сложной сцены. Или Sora может не выстроить в конкретном случае причинно-следственную связь: например, человек в кадре откусывает кусочек печенья, но после этого на печенье может не остаться следа от укуса. Сервис также может путать пространственные детали, например, лево и право. Может совершать ошибки при событиях, занимающих продолжительное время — например, неправильно выстроить траекторию следования камеры за объектом», — уточнили в OpenAI.

Меры безопасности

Пока доступ к сервису открыт только для тех, кто может помочь в улучшении программы. В частности, это художники, дизайнеры и режиссеры, от которых разработчики ждут отзывы о том, как усовершенствовать модель, чтобы она была наиболее полезна для творческой отрасли.

Также Sora доступна для специалистов, которые могут помочь с  оценкой рисков использования программы. То есть, они будут специально пытаться создать фейки, или разжигающий ненависить, или дискриминирующий контент — и вносить коррективы в программу, чтобы потом сделать это было невозможно. Кроме того, в новый сервис изначально «зашиты» те же ограничения для запросов, что уже работают для других сервисов компании: будут отклоняться сообщения, которые требуют создания сцен насилия, сексуального или разжигающего ненависть контента, изображений знаменитостей или чужих IP-адресов.

Кроме того, OpenAI разрабатывает специальные инструменты, которые помогут обнаруживать вводящий в заблуждение контент, если полученные с помощью Sora ролики будут использованы злоумышленниками. Например, появится классификатор, который позволит точно определить видео, созданное нейросетью.