StabilityAI发布基于StableDiffusion的视频生成模型StableVideoDiffusion

新知榜官方账号

2023-11-24 06:06:11

StabilityAI发布基于StableDiffusion的视频生成模型StableVideoDiffusion

StabilityAI发布了基于StableDiffusion的视频生成模型StableVideoDiffusion,可以根据静态图像生成几秒钟的视频,已经超越了用户偏好研究中领先的闭源模型。现在,你可以基于原有的静止图像来生成一段几秒钟的视频。

StableVideoDiffusion以两种图像到视频模型的形式发布,能够以每秒3到30帧之间的可定制帧速率生成14和25帧的视频。StabilityAI表示,正在计划建立和扩展这个基础的各种模型,类似于围绕stablediffusion建立的生态系统。

StableVideoDiffusion可以轻松适应各种下游任务,包括通过对多视图数据集进行微调从单个图像进行多视图合成。除此之外,该模型还能够提供强大的多视图3D先验,这可以作为多视图扩散模型的基础,模型以前馈方式生成对象的多个视图,只需要较小的算力需求,性能还优于基于图像的方法。

StableVideoDiffusion的技术层面达到了文本到视频或图像到视频的SOTA水平。通过插入时间层并在小型高质量视频数据集上进行微调,为2D图像合成训练的潜在扩散模型已转变为生成视频模型。

成功训练该模型包括以下三个阶段:阶段一:图像预训练;阶段2:视频预训练数据集;阶段3:高质量微调。为了分析视频预训练对最后阶段的影响,本文对三个模型进行了微调,这些模型仅在初始化方面有所不同。看起来这是个好的开始。

StableVideoDiffusion现阶段不适用于现实世界或直接的商业应用,后续将根据用户对安全和质量的见解和反馈完善该模型。

本页网址:https://www.xinzhibang.net/article_detail-20947.html

寻求报道,请 点击这里 微信扫码咨询

关键词

StabilityAI 视频生成模型 StableVideoDiffusion

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯