категории | RSS

Состоялся релиз модели Stable Video Diffusion для генерации коротких видео

Разработчики открытой модели машинного обучения Stable Diffusion представили Stable Video Diffusion — решение для генерации коротких видео. Организация обновила GitHub-репозиторий и опубликовала материалы исследования.

Предварительная версия Stable Video Diffusion может генерировать короткие видеоролики на 14 и 25 кадров с настраиваемой частотой от 3 до 30 кадров в секунду. Разработчики опубликовали всё необходимое для локального запуска, включая веса модели. Для генерации необходимо задать текстовое описание для итогового видео.

Модель можно адаптировать для использования в собственных проектах, но разработчики отмечают, что пока она не готова к интеграции в коммерческие приложения. Команда разработчиков планирует и дальше расширять возможности Stable Video Diffusion. В будущем на её базе реализуют экосистему решений для генерации контента.

В ближайшее время ожидается релиз веб-интерфейса для быстрого доступа к Stable Video Diffusion. Желающим необходимо пройти предварительную регистрацию. Разработчики надеются, что упрощённый доступ к модели поможет использовать её для создания рекламных, образовательных и развлекательных материалов. Кроме того, в блоге Stability AI отметили, что в тестах Stable Video Diffusion показывает себя лучше моделей Runway и Pika Labs.

Код и все необходимы материалы для локального запуска Stable Video Diffusion опубликованы в открытом GitHub-репозитории. Вместе с этим доступно детальное исследование решения.



Источник новости: habr.com

DimonVideo
2023-11-22T00:50:03Z

Здесь находятся
всего 0. За сутки здесь было 0 человек
Яндекс.Метрика