DreaMoving

88次阅读

DreaMoving

DreaMoving,一种基于扩散的可控视频生成框架,用于生成高质量的定制人类舞蹈视频。具体来说,给定目标身份和姿势序列,DreaMoving 可以生成目标身份在姿势序列驱动下在任何地方跳舞的视频。为此,我们提出了一个用于运动控制的视频控制网络和一个用于身份保留的内容指南。所提出的模型易于使用,并且可以适应大多数风格化的扩散模型以生成不同的结果。

DreaMoving项目地址:https://dreamoving.github.io/dreamoving

DreaMoving 概述:

Video ControlNet 是在每个 U-Net 块之后注入运动块的图像 ControlNet。Video ControlNet 将控制序列(姿态或深度、处理为额外的时间残差。Denoising U-Net 是一种衍生的 Stable-Diffusion U-Net,带有用于视频生成的运动块。内容导览器将输入文本提示和外观表达式(如人脸(布料是可选的、、传输到内容嵌入中,以便交叉注意。

结果:

DreaMoving 可以生成高质量和高保真度的视频,给定指导序列和简单的内容描述,例如文本和参考图像作为输入。具体来说,DreaMoving 通过人脸参考图像、通过姿势序列进行精确运动操作以及由指定文本提示提示的全面视频外观控制来展示身份控制的熟练程度。

前往AI网址导航

正文完
 0
微草录
版权声明:本站原创文章,由 微草录 2024-01-02发表,共计563字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。