Adobe近日宣布了一项创新技术——ActAnywhere,这是一款由斯坦福大学和Adobe Research合作开发的AI视频背景生成模型。该模型旨在解决视频制作中前景主体与背景无缝结合的难题,尤其适用于电影制作和视觉效果(VFX)行业。

ActAnywhere的核心功能

ActAnywhere的一大特色是其前景主体与背景的自然融合能力。它能够根据前景主体的运动和外观,自动生成匹配的背景,使得主体与背景之间的交互看起来连贯且真实。用户可以提供一个描述新场景的图像(条件帧),模型将据此生成相应的视频背景,允许定制特定的环境元素。

此外,ActAnywhere利用时间自注意力机制确保视频在时间序列上的连贯性,包括相机运动、光照变化和阴影效果的同步。模型通过自监督学习在大规模人类-场景交互视频数据集上训练,无需人工标注,能适应各种场景。更令人印象深刻的是,ActAnywhere具备零样本学习能力,即使面对新的、未见过的数据,也能生成背景。

工作原理

ActAnywhere的工作流程包括数据准备、特征编码、扩散过程、时间注意力机制和训练目标。它利用前景主体分割算法提取前景和掩膜,通过预训练的变分自编码器编码潜在特征,然后通过扩散过程和逆向扩散生成视频帧。时间自注意力模块和条件帧的特征注入确保了时间连贯性和背景一致性。

应用场景与潜力

ActAnywhere在视频背景替换方面具有广泛的应用前景,可以轻松将人物或物体置于不同的场景中,为电影和电视制作、广告创意、在线教育甚至社交媒体内容创作提供无限可能。此外,该技术还可能改变虚拟现实(VR)和增强现实(AR)内容的制作方式,为用户提供更加沉浸式和个性化的体验。

ActAnywhere的发布标志着Adobe在AI驱动的创意工具开发方面迈出的又一重要步伐,为专业和业余创作者提供了更高效、更灵活的视频编辑解决方案。

结语

随着ActAnywhere的推出,Adobe再次展示了其在数字媒体创新领域的领导地位。这款AI模型有望简化视频制作过程,释放更多创意潜力,同时降低制作成本,为视觉艺术和娱乐产业注入新的活力。

【source】https://ai-bot.cn/actanywhere/

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注