近日,中国知名AI技术公司元象正式发布中国最大MoE(Mixture of Experts)开源模型——XVERSE-MoE-A36B。该模型总参数达255B,激活参数36B,在性能上实现了“跨级”跃升。此外,该模型在多个权威评测中效果显著超越同类模型,且无条件免费商用。
XVERSE-MoE-A36B模型在训练时间上减少30%,推理性能提升100%,大幅降低了每token的成本。在多个权威评测中,元象MoE模型效果大幅超越同类模型,包括国内千亿MoE模型Skywork-MoE、Mixtral-8x22B以及3140亿参数的MoE开源模型Grok-1-A86B等。
MoE(Mixture of Experts)是业界最前沿的混合专家模型架构,将多个细分领域的专家模型组合成一个超级模型。元象的MoE模型在扩大模型规模时,不显著增加训练和推理的计算成本,保持模型性能最大化。
值得一提的是,元象的“高性能全家桶”系列全部开源,无条件免费商用,让海量中小企业、研究者和开发者能按需选择。此外,元象在AI领域的应用已落地多个场景,包括AI角色扮演与互动网文APP Saylo、音乐助手“AI小琴”等。
此次元象发布的中国最大MoE开源模型,不仅展现了我国在AI领域的研发实力,更为AI生态贡献了一个助推低成本AI应用利器,引领AI发展新潮流。
【来源】量子位
Views: 0