Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

最新消息最新消息
0

“`markdown

南洋理工与商汤科技联手推出MatAnyone:人像视频抠图技术迎来新突破

新加坡/香港 – 在人工智能领域,视频抠图技术一直是研究的热点。近日,南洋理工大学S-Lab实验室与商汤科技联合发布了一款名为MatAnyone的人像视频抠图框架,该框架在复杂背景下的人像视频处理方面表现出色,为影视后期制作、视频会议、广告营销等领域带来了新的可能性。

MatAnyone:精准抠图,细节呈现

MatAnyone并非简单的图像处理工具,而是一个专注于目标指定的视频抠图框架。它基于一致的内存传播模块(CMP)和区域自适应内存融合技术,能够确保视频序列中核心区域的语义稳定性,并精细地提取边界细节。这意味着即使在复杂的背景下,MatAnyone也能稳定地跟踪目标对象,并生成高质量的alpha遮罩,尤其是在处理头发、边缘等细节时,表现出图像级的精度。

技术原理:一致性与自适应

MatAnyone的技术核心在于其一致内存传播模块(CMP)。该模块通过估计当前帧与前一帧之间的alpha值变化,自适应地融合来自前一帧的信息。对于变化较大的边界区域,更多地依赖当前帧的信息;而对于变化较小的核心区域,则保留前一帧的内存。这种区域自适应的内存融合方式,显著提高了核心区域的语义稳定性和边界区域的细节精度。

此外,为了克服真实视频抠图数据稀缺的问题,MatAnyone采用了大规模分割数据直接监督抠图头的训练策略。通过在核心区域使用像素级损失(Lcore)和在边界区域使用改进的DDC损失(Lboundary),确保了语义稳定性和细节精度。

数据集与训练策略:质量与效率并重

MatAnyone的成功离不开高质量的数据集和有效的训练策略。研究团队引入了新的训练数据集VM800,其规模是现有数据集VideoMatte240K的两倍,且在核心和边界区域的质量更高。同时,MatAnyone采用了多阶段训练策略,先在视频抠图数据上初始化模型,基于分割数据进行核心区域监督,最后用图像抠图数据进一步优化边界细节。

应用场景:潜力无限

MatAnyone的应用场景非常广泛,包括:

  • 影视后期制作: 用于背景替换和特效合成,将演员从原始背景中精准抠出,替换为虚拟或特效背景。
  • 视频会议与直播: 实时将人物从复杂背景中分离出来,替换为虚拟背景或模糊背景,增强隐私保护和视觉效果。
  • 广告与营销: 将产品或人物从拍摄背景中抠出,替换为更具吸引力的背景,提升广告的视觉冲击力和吸引力。
  • 游戏开发: 用于游戏中的视频内容制作,如角色动画、过场动画等。
  • 虚拟现实与增强现实: 将用户或物体从现实场景中抠出,融合到虚拟环境中,提升用户体验和交互效果。

专家观点:未来可期

“MatAnyone的推出,标志着人像视频抠图技术进入了一个新的阶段,”一位不愿透露姓名的人工智能专家表示,“其在细节处理和稳定性方面的提升,将极大地提高相关行业的生产效率和创作空间。随着技术的不断发展,我们有理由相信,MatAnyone将在更多领域发挥重要作用。”

项目信息

参考文献

  • Yang, P., et al. (2025). MatAnyone: Target-Specified Video Matting with Memory Propagation. arXiv preprint arXiv:2501.14677.

(完)
“`


>>> Read more <<<

Views: 0

0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注