阿里云Qwen2.5发布!再登开源大模型王座,Qwen-Max性能逼近GPT-4
人工智能领域再度迎来重磅消息! 2023年8月,阿里云通义千问首次开源后迅速引起全球开发者的关注和热议,短短一年时间内,阿里云大模型又迎来了重要升级。在9月19日的云栖大会上,阿里云CTO周靖人宣布:通义千问发布新一代开源模型Qwen2.5,开源旗舰模型Qwen2.5-72B性能超越Llama 3.1-405B,再次登上全球开源大模型的王座;通义旗舰模型Qwen-Max全方位升级,性能已经逼近GPT-4。
Qwen2.5:超级AI模型“百宝箱”
Qwen2.5系列是一个超级AI模型“百宝箱”,涵盖了多个尺寸的大语言模型、多模态模型、数学模型和代码模型。每个尺寸都有基础版本、指令跟随版本和量化版本,总计上架了100多个模型,刷新了业界纪录。
语言模型方面,Qwen2.5开源了7个尺寸:0.5B、1.5B、3B、7B、14B、32B、72B,每个都在同等参数赛道创造了业界最佳成绩。这些型号的设定充分考虑了下游场景的不同需求:3B是适配手机等端侧设备的黄金尺寸;32B是最受开发者期待的“性价比之王”,可在性能和功耗之间获得最佳平衡。令人惊喜的是,Qwen2.5-32B的整体表现甚至超越了Qwen2-72B。所有Qwen2.5系列模型都在18万亿(18T)tokens的数据上进行了预训练。相比Qwen2,整体性能提升了18%以上,拥有更多的知识、更强的编程和数学能力。旗舰模型Qwen2.5-72B在MMLU-redux(通用知识)、MBPP(代码能力)和MATH(数学能力)等基准测试中,分别取得了86.8、88.2、83.1的高分。72B作为Qwen2.5系列的旗舰模型,在多个核心任务上,以不到1/5的参数超越了拥有4050亿巨量参数的Llama3.1-405B。
专项模型方面,用于编程的Qwen2.5-Coder和用于数学的Qwen2.5-Math都有了实质性飞跃。Qwen2.5-Coder在多达5.5万亿(5.5T)token的编程相关数据上进行了训练,当天开源了1.5B和7B版本,未来还将开源32B版本。Qwen2.5-Math支持使用思维链和工具集成推理(TIR)解决中英双语的数学题,是迄今为止最先进的开源数学模型系列。本次开源了1.5B、7B、72B三个尺寸和一款数学奖励模型Qwen2.5-Math-RM。
多模态模型方面,备受期待的视觉语言模型Qwen2-VL-72B正式开源!Qwen2-VL具备强大的视觉理解能力,能够识别不同分辨率和长宽比的图片,还可以理解长达20分钟以上的视频内容。同时,它还支持自主操作手机和机器人的视觉智能功能,展现了高度灵活的应用场景。Qwen2-VL-72B在权威测评LMSYS Chatbot Arena Leaderboard成为全球得分最高的开源视觉理解模型。
Qwen-Max:性能逼近GPT-4
现在,通义官网和通义APP的后台模型都已切换为Qwen-Max,继续为所有用户免费服务。你还可以通过阿里云百炼平台调用Qwen-Max的API,亲自体验它的强大实力。
相比上一代模型,Qwen-Max在训练中使用了更多的训练数据、更大的模型规模,并进行了更深入的人类对齐,最终实现了智能水平的飞跃。在MMLU-Pro、MATH、GSM8K、MBPP、MultiPL-E、LiveCodeBench等十多个权威基准测试中,Qwen-Max的表现已经接近GPT-4,尤其是在数学能力和代码能力上,甚至超越了GPT-4!要知道,数学和代码所代表的推理能力可是大模型智能的核心体现。
更令人兴奋的是,与2023年4月的初代通义千问大模型相比,Qwen-Max的理解能力提升了46%、数学能力提升了75%、代码能力提升了102%、抗幻觉能力提升了35%、指令遵循能力提升了105%。还有一个更加惊喜的数据,模型与人类偏好的对齐水平实现了质的飞跃,提升了700%以上。这意味着Qwen-Max不仅更聪明,还更懂你!
通义千问的崛起
通义千问凭借不断迭代的技术和丰富的应用场景,迅速崛起为开发者的热门选择,尤其是在中文社区中引发了广泛关注。这次发布,模型不仅展现出更强大的代码、数学和语言处理能力,还拥有领先的多模态处理和视觉智能,使其成为当前AI技术领域的佼佼者。
Qwen2.5和Qwen-Max的发布,标志着阿里云在开源大模型领域取得了重大突破,也为全球开发者提供了更加强大的AI工具。相信未来,通义千问将继续引领开源大模型的发展,为人工智能技术进步贡献更多力量。
Views: 0