字节跳动推出单图驱动视频生成模型X-Portrait 2:将静态照片变为栩栩如生的动态影像

北京,2023年10月26日 – 字节跳动智能创作团队近日发布了单图驱动视频生成模型X-Portrait 2,该模型能够基于一张静态照片和一段驱动视频生成高质量、电影级视频,为影视制作、游戏开发、虚拟主播等领域带来革命性的变化。

X-Portrait 2的核心技术在于其强大的表情和情绪迁移能力。该模型能够将驱动视频中的表情和情绪迁移到静态肖像上,生成具有丰富表情的视频内容,同时保持原图身份特征,准确捕捉细微表情和情绪,实现跨风格动作迁移。与前一代模型Act-One相比,X-Portrait 2在快速头部动作、细微表情变化和强烈个人情感的表现上更为真实。

X-Portrait2的主要功能包括:

  • 表情和情绪迁移:将驱动视频中的表情和情绪迁移到静态肖像上,生成具有丰富表情的视频内容。
  • 高保真度:在生成视频中保持高保真度,确保表情和情绪的细微变化得到准确再现。
  • 跨风格和跨域迁移:模型支持将表情迁移到不同风格和领域的图像上,包括写实肖像和卡通图像。
  • 实时视频生成:实时生成视频,减少传统动作捕捉和角色动画的复杂性。
  • 广泛的应用场景:适用于真实世界叙事、角色动画、虚拟代理和视觉效果等多种场景。

X-Portrait 2的技术原理:

X-Portrait 2基于表情编码器模型和生成式扩散模型的结合,实现表情和情绪的迁移。

  • 表情编码器模型:模型从输入中隐式编码每一个微小的表情变化,基于在大规模数据集上的训练实现。
  • 生成式扩散模型:将表情编码器与生成式扩散模型相结合,生成流畅且富有表现力的视频。
  • 外观与运动解耦:在训练表情编码器时,确保外观和运动信息的强解耦,让编码器只关注驱动视频中与表情相关的信息。
  • 跨风格和跨域表达转移:模型实现跨风格和跨域的表情转移,覆盖写实肖像和卡通图像,提高模型的适应性和应用范围。
  • 细节捕捉:捕捉、迁移包括快速头部动作、细微表情变化和强烈个人情感在内的复杂表情和动作,对于高质量的动画内容创作至关重要。

X-Portrait 2的应用场景:

X-Portrait 2的出现将为多个领域带来新的可能性:

  • 电影和动画制作:在电影和动画产业中,X-Portrait 2生成或增强角色的表情和动作,减少传统动作捕捉的需求,降低成本、提高效率。
  • 游戏开发:游戏开发者为游戏角色创建更加真实和动态的表情和动作,提升玩家的沉浸感。
  • 虚拟主播和虚拟偶像:在直播和娱乐领域,创建虚拟主播和虚拟偶像,让表情和动作更加自然和生动。
  • 社交媒体和内容创作:内容创作者为视频添加动态表情,提高内容的吸引力和互动性。
  • 教育和培训:在教育领域,创建教育视频,让教学内容更加生动和易于理解。

X-Portrait 2的发布标志着人工智能技术在视频生成领域的又一次突破,为未来电影、游戏、虚拟现实等领域的发展提供了新的可能。随着技术的不断发展,我们可以期待更多更强大的AI模型的出现,为我们带来更加精彩的数字世界。

项目地址:

  • 项目官网:byteaigc.github.io/X-Portrait2

参考文献:

免责声明:

本文内容仅供参考,不构成任何投资建议。请读者自行判断并承担风险。


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注