文章转载来源:机器之心
来源:机器之心
图片来源:由无界 AI生成
文生视频领域又卷起来了!
文生视频可以精细到什么程度?最近,阿里巴巴的一项研究给出了答案:1280×720 分辨率没有压力,而且生成效果非常连贯。
文本提示:A kitten in flowers, Chinese painting.(一只小猫在花丛中,中国画。)
文本提示:A yellow robot.(一个黄色的机器人)
文本提示:A photo of an ancient shipwreck nestled on the ocean floor. Marine plants have claimed the wooden structure...(海底一艘古老沉船的照片。海洋植物侵蚀了木结构……)
这些 demo 来自阿里联合浙江大学、华中科技大学提出的文生视频模型 I2VGen-XL,该模型能够生成各种类别的高质量视频,如艺术画、人像、动物、科幻图等。生成的视频具有高清、高分辨率、平滑、美观等优点,适合广泛的视频内容创作任务。在与 Gen2、Pika 生成效果对比上, I2VGen-XL 生成的视频动作更加丰富,主要表现在更真实、更多样的动作,而 Gen-2 和 Pika 生成的视频似乎更接近静态。
除了生成效果,这项工作更令人印象深刻的一点是研究人员在数据上下的工夫。为了提高生成效果的多样性,研究人员收集了大约 3500 万单镜头文本 - 视频对和 60 亿文本 - 图像对来优化模型,这是一个非常庞大的数据集,其后续潜力令人期待。
该研究表示得益于扩散模型的快速发展,视频合成最近取得了显著的进步。然而,它在语义的准确性、清晰度和时空连续性方面仍然面临挑战。
出现这种状况的原因一方面是由于缺乏良好的经过对齐的文本 - 视频数据,另一方面在于视频本身复杂的内在结构,使得模型难以同时保证语义和质量的卓越性。
为了解决上述问题,研究者受到 SDXL 方法的启发,提出了一种级联的 I2VGen-XL 方法,其能够生成具有连贯空间和运动动态化以及细节连续的高清视频。
I2VGen-XL 旨在从静态图像生成高质量视频。因此,它需要实现两个关键目标:语义一致性,即准确预测图像中的意图,然后在保持输入图像的内容和结构的同时生成精确的运动;高时空一致性和清晰度,这是视频的基本属性,对于确保视频创作应用的潜力至关重要。为此,I2VGenXL 通过由两个阶段组成的级联策略分解这两个目标:基础阶段和改进阶段。
具体而言:
基础阶段。基于 VLDM,本文设计的第一阶段是低分辨率(即 448×256),主要侧重于在输入图像上结合多级特征提取,包括高级语义和低级细节学习。
改进阶段。经过基础阶段可以获得具有多样化且语义准确的运动的低分辨率视频。然而,这些视频可能会遇到各种问题,例如噪声、时间和空间抖动以及变形。因此,改进模型有两个主要目标:i)增强视频分辨率,将其从 448 × 256 增加到 1280 × 720 或更高;ii) 提高视频的时空连续性和清晰度,解决时间和空间上的伪影问题。
为了提高视频质量,该研究训练了一个单独的 VLDM,专门处理高质量、高分辨率数据,并对第一阶段生成的视频采用 SDEdit 引入的噪声去噪过程。
该研究还使用 CLIP 对文本进行编码,并通过交叉注意力将其嵌入到 3D UNet 中。然后,基于基础阶段的预训练模型,研究者使用精心挑选的高质量视频训练高分辨率模型,所有视频的分辨率都大于 1280×720。
此外,该研究还收集了 3500 万个高质量 single-shot 视频和 60 亿张图像,以达到增强 I2VGen-XL 多样性和稳健性的目的。
最后,广泛的实验评估结果表明 I2VGen-XL 可以同时增强生成视频的语义准确性、细节的连续性和清晰度。此外,该研究还将 I2VGenXL 与当前的顶级方法进行了比较,结果都表明 I2VGenXL 在各种数据上的有效性。
为了证明新方法的有效性,研究者将 I2VGen-XL 的性能与 Gen-2 和 Pika 进行了比较,二者被公认为是目前文生视频领域最先进的方法。如图 4 所示,作者使用这两种方法的网页界面生成了三种类型图像的视频,包括虚拟、写实和抽象绘画。
从这些结果中可以得出以下几个结论:i) 动作的丰富性:I2VGen-XL 的结果显示出更真实、更多样的动作,例如最上方的例子。相比之下,Gen-2 和 Pika 生成的视频似乎更接近静态,这表明 I2VGen-XL 实现了更丰富的运动;ii) ID 保留程度:从这三个样本中可以看出,Gen-2 和 Pika 成功地保留了物体的身份特征,而 I2VGen-XL 则丢失了输入图像的一些细节。在实验中,作者还发现 ID 保留程度和运动强度之间存在一定的权衡关系。I2VGen-XL 在这两个因素之间取得了平衡。
I2VGen-XL 生成视频结果。
I2VGen-XL 生成视频结果。
图 3 展示了改进阶段前后生成的视频。这些结果表明,空间细节得到了大幅提升,包括面部和身体特征的细化,以及局部细节中噪音的明显减少。
为了进一步阐明改进模型的工作机制,本文在图 7 的频域中分析了在此过程中生成的视频中发生的空间和时间变化。图 7a 显示了四个空间输入的频谱,表明:低质量视频表现出与高频范围内的噪声相似的频率分布,而高质量视频表现出与输入图像的频率分布更相似。将其与图 7b 所示的空间频率分布相结合,可以观察到改进模型有效地保留了低频数据,同时在高频数据中表现出更平滑的变化。从时间维度的角度来看,图 7d 呈现了低质量视频(上)和高质量视频(下)的时间曲线,表明高清视频的连续性有了明显的改善。此外,结合图 7b 和图 7e 可以看出,改进模型在空间和时间域中保留了低频分量,减少了中频分量,并增强了高频分量。这表明时空域中的伪影主要存在于中频范围。
该研究还对更广泛的图像进行了实验,包括人脸、3D 卡通、动漫、国画、小动物等类别。结果如图 5 所示,图中可以观察到生成的视频考虑了图像的内容和合成视频的美感,同时还表现出有意义且准确的动作。例如,在第六行,模型准确地捕捉到了小猫可爱的嘴巴动作。这些结果表明 I2VGen-XL 表现出有前途的泛化能力。
生成稳定的人体运动仍然是视频合成的主要挑战。因此,该研究还专门验证了 I2VGen-XL 在人体图像上的稳健性,如图 8 所示。可以观察到,该模型对人体的预测和生成的运动相当真实,具有人体的大部分特征。
文本到视频合成目前面临的主要挑战之一是高质量视频 - 文本对的收集,这使得与图像合成相比,实现视频和文本之间的语义对齐更加困难。因此,将 Stable Diffusion 等图像合成技术与图像到视频合成相结合,有助于提高生成视频的质量。事实上,为了尊重隐私,该研究几乎所有样本都是由两者结合生成的。另外,在图 6 中是本文单独生成的样本,可以观察到视频和文本表现出很高的语义一致性。
了解更多内容,请参考原论文。
来源:机器之心
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com