北京 — 阿里巴巴集团通义实验室近日发布了Animate Anyone 2,一项旨在提升角色动画生成真实感和交互性的突破性技术。该技术通过结合环境信息,从视频中提取运动信号,并引入多项创新策略,实现了角色动画与周围环境的自然融合,为影视制作、游戏开发、广告营销等领域带来了新的可能性。
技术突破:环境感知、形状无关与深度姿态调制
Animate Anyone 2 的核心在于其对环境的感知和融合能力。与传统方法不同,该技术不仅关注角色本身的动作,更将环境信息作为重要的输入条件。通过捕捉环境表示,Animate Anyone 2 能够生成与背景协调一致的角色动画,避免了角色与环境脱节的问题。
为了更有效地表征角色与环境之间的关系,研究团队提出了一种“形状无关掩码策略”。该策略打破了掩码区域与角色轮廓之间的对应关系,减少了形状泄漏,从而更好地实现了角色与环境的融合。
此外,Animate Anyone 2 还引入了“物体引导器”(Object Guider)和“空间混合”(Spatial Blending)技术,以增强角色与物体的交互真实感。通过提取与角色交互的物体特征,并将这些特征注入生成过程中,Animate Anyone 2 能够生成更加自然和逼真的交互动画。
在处理复杂动作方面,Animate Anyone 2 采用了“深度姿态调制策略”。通过增加结构化的深度信息来增强骨架信号,模型能够更好地表示肢体之间的空间关系,从而在复杂动作场景下表现出更高的鲁棒性。
应用场景:影视、广告、游戏、教育全面开花
Animate Anyone 2 的应用前景十分广阔:
- 影视制作: 快速生成高质量的角色动画,支持角色替换、动作迁移等功能,大幅提升制作效率。
- 广告与营销: 实现视频中人物的替换和动作表情的无缝迁移,为品牌创造更具吸引力和个性化的广告内容。
- 虚拟现实(VR)和增强现实(AR): 生成与虚拟环境高度融合的角色动画,为用户提供更加沉浸式的体验。
- 游戏开发: 快速生成多样化的角色动画,支持角色与游戏环境的自然交互,提高开发效率,为玩家带来更加逼真的游戏体验。
- 教育与培训: 创建个性化的虚拟角色,用于模拟教学场景或培训演示,增强学习的趣味性和效果。
基于扩散模型的框架
Animate Anyone 2 基于扩散模型构建,采用预训练的变分自编码器(VAE)将图像从像素空间转换到潜在空间,通过去噪网络逐步去除噪声,最终重建图像。这种框架赋予了Animate Anyone 2强大的生成能力和灵活性。
开放资源与未来展望
目前,Animate Anyone 2 的项目地址已经公开,包括项目官网和 arXiv 技术论文,方便研究者和开发者进一步了解和使用该技术。
Animate Anyone 2 的发布,标志着阿里巴巴在AI动画生成领域取得了重要进展。随着技术的不断发展,我们有理由相信,未来的角色动画将更加逼真、自然,并为各行各业带来更多的创新应用。
参考文献:
- Humanaigc.github.io. (n.d.). Animate Anyone 2. Retrieved from https://humanaigc.github.io/animate-anyone-2/
- arXiv.org. (n.d.). Animate Anyone 2 arXiv Technical Paper. Retrieved from https://arxiv.org/pdf/2502.06145
Views: 0