元象XVERSE近日宣布推出国内首个基于物理的3D动作生成模型——MotionGen(www.MotionGen.cn),该模型凭借其创新技术,实现了只需一句简单的文本指令就能生成令人惊艳的复杂3D动作,打破了传统3D内容制作的效率瓶颈和成本限制。

3D内容制作行业长期以来依赖于手动关键帧动画或昂贵的动作捕捉设备,这些方法不仅耗时,成本高昂,而且在处理复杂场景和交互时往往力不从心。而MotionGen模型的诞生,融合了大模型、物理仿真和强化学习等前沿技术,使得用户无需专业经验,只需通过文本输入,即可快速生成逼真、流畅且多样化的3D动作,为中国3D AIGC领域带来了重大突破。

借助MotionGen,3D动画、游戏、电影和虚拟现实行业的创作者可以更加自由地进行内容创作,大大提升了创作的自由度和效率。元象XVERSE作为国内AI+3D领域的领军企业,已研发出一系列创新工具,包括获得国家备案的元象大模型、图文多模态大模型,以及3D场景生成工具等,致力于提升AI的认知智能和3D的感知智能,推动通用人工智能(AGI)的发展。

MotionGen模型通过精准的文本解析、真实的物理规则解析和多样化的动作风格,能够满足从基本行走至复杂肢体运动的各种动作需求。其精准的文本理解能力可以深入分析复杂的指令,生成相应动作,实现文本到动作的无缝转换。同时,模型还能创造出各种类型的动作,确保动作的连贯性和物理真实性。此外,风格的多样性使得每个动作都有其独特性,为3D角色赋予了丰富的表现力。

这一创新技术克服了传统方法的局限性,如运动控制器、时空优化、运动学和基于物理的运动控制等方法的不足,通过元象自研的MotionGenGPT算法,结合强化学习、物理仿真、模仿学习和Transformer模型等,实现了无需人工参数设定的复杂3D动作自动生成。

元象XVERSE的目标是持续推动AI和3D技术的进步,让每个人都能自由地“定义你的世界”。随着MotionGen的推出,3D内容创作领域将迎来一个全新的时代,为创作者提供无限的想象空间和高效的创作工具。

【source】https://www.jiqizhixin.com/articles/2024-08-28-7

Views: 3

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注