正文:
近日,中国知名AI技术公司元象宣布发布国内最大开源MoE模型——XVERSE-MoE-A36B,总参数达到255B,激活参数36B,性能实现“跨级”跃升。这一模型的发布,不仅标志着中国在MoE模型领域的重大突破,也进一步推动了AI应用的普及。
XVERSE-MoE-A36B模型在多个权威评测中,效果大幅超越同类模型,包括国内千亿MoE模型Skywork-MoE、Mixtral-8x22B以及3140亿参数的MoE开源模型Grok-1-A86B等。该模型在训练时间减少30%,推理性能提升100%,使得每token成本大幅下降。
MoE(Mixture of Experts)是业界最前沿的混合专家模型架构,通过将多个细分领域的专家模型组合成一个超级模型,打破了传统扩展定律的局限。这种架构在扩大模型规模时,不显著增加训练和推理的计算成本,保持模型性能最大化。因此,包括谷歌Gemini-1.5、OpenAI的GPT-4、马斯克旗下xAI公司的Grok等大模型都采用了MoE架构。
元象此次发布的XVERSE-MoE-A36B模型,在MoE效率和效果方面进行了技术创新。在效率方面,采用了4D拓扑架构、专家路由与预丢弃策略、通信与计算重叠等机制;在效果方面,通过专家权重、数据动态切换、学习率调度策略等手段,提高了模型的性能。
值得一提的是,元象此次发布的MoE模型全部开源,无条件免费商用,让海量中小企业、研究者和开发者能按需选择。这将为AI生态贡献一个助推低成本AI应用利器。
此外,元象基于MoE模型自主研发的AI角色扮演与互动网文APP Saylo,通过逼真的AI角色扮演和有趣的开放剧情,火遍港台,下载量在中国台湾和香港娱乐榜分别位列第一和第三。
随着元象XVERSE-MoE-A36B模型的发布,中国AI技术将在MoE领域取得更大突破,为AI应用普及提供有力支持。未来,元象将继续致力于AI技术的创新与发展,推动AI产业迈向更高峰。
Views: 0