Компания OpenAI представила обновленную версию модели Sora для генерации видео по текстовым описаниям. Новая версия создает более качественные и реалистичные ролики со звуком, тогда как предыдущая генерировала только беззвучные видео. Теперь модель умеет добавлять в кадр конкретных людей и предметы на основе загруженных примеров.
Одновременно с обновлением вышло мобильное приложение Sora для iPhone. Это социальная сеть с короткими роликами, созданными пользователями с помощью Sora 2. Помимо генерации по описанию доступно редактирование чужих работ — можно добавить сюжетный поворот или вставить в видео себя и знакомых. Меньше чем за неделю приложение возглавило топ App Store в категории «Фото и видео».
Пока приложение работает только в США и Канаде по приглашениям. Генерация видео временно бесплатна, но в будущем станет платной. Также планируется открыть доступ к модели через API.
Почему это важно?
Модели для генерации видео начали активно развиваться с 2024 года. С тех пор OpenAI, Google и ряд китайских компаний представили решения, способные создавать относительно реалистичные ролики.
Сейчас их используют преимущественно для развлекательного контента — в лентах соцсетей появляется всё больше видео, созданных с помощью ИИ. Существуют опасения, что в будущем компании будут применять такие технологии для генерации крайне персонализированного и вызывающего зависимость контента.
В перспективе генеративные модели могут превратиться в модели мира, способные относительно точно и быстро симулировать физические процессы и ситуации из реальности. Такие симуляции можно использовать для исследования процессов, точный расчет которых слишком ресурсоемок, а также для сбора данных для обучения и тестирования автономных и роботизированных систем. Например, можно будет моделировать редкие дорожные ситуации для проверки автопилотов или рутинные задачи вроде складывания вещей и приготовления пищи для обучения роботов.