Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

0

西雅图 — Allen Institute for AI (AI2) 近日发布了其最新的开源语言模型 OLMo 2 32B,这款拥有320亿参数的模型,在多技能学术基准测试中,性能首次超越了 GPT-3.5-Turbo 和 GPT-4o-mini 等闭源模型,并且接近 Qwen-2.5-72B 等更大规模的模型。这一突破性的进展,标志着开源语言模型在性能上取得了显著的进步,为研究人员和开发者提供了更强大的工具。

OLMo 2 32B:技术细节与亮点

OLMo 2 32B 的成功,得益于其高效的训练策略和先进的技术原理。该模型采用了预训练、中期训练和后训练相结合的三阶段训练策略,基于 OLMo-Mix-1124 数据集(3.9 万亿标记)和 Dolmino 数据集(8430 亿标记)进行训练。令人印象深刻的是,OLMo 2 32B 仅需三分之一的计算量,即可达到与 Qwen-2.5-32B 相似的性能。

  • 三阶段训练策略:
    • 预训练阶段: 利用网页、代码和学术论文等高质量数据,通过过滤重复的 n-gram、优化初始化方法和超参数调整等技术,提升训练的稳定性和性能。
    • 中期训练阶段: 使用领域特定的高质量数据,如数学任务数据,进一步提升模型在特定任务上的表现。
    • 后训练阶段: 基于监督微调(SFT)、直接偏好优化(DPO)和具有可验证奖励的强化学习(RLVR)等技术,增强模型的指令跟随能力和生成质量。
  • 高效训练框架: OLMo-2-32B 使用了改进的 OLMo-core 训练框架,支持更大的模型规模和多种训练范式。该框架在硬件优化方面表现出色,例如通过减少主机与设备之间的同步成本、优化数据预处理和使用水冷系统降低 GPU 能耗。
  • 数据集与模型优化: 模型训练使用了混合数据集,包括公开数据集、合成数据集和人工创建数据集。在训练过程中,AI2 团队通过微退火技术和高质量数据源的选择,进一步优化了模型的性能。

开源的意义:赋能研究与创新

OLMo 2 32B 的最大特点是其完全开源的性质。所有数据、代码、权重和中间检查点都公开可用,并支持在 Hugging Face 的 Transformers 库中使用。这为研究人员和开发者提供了极大的便利,他们可以基于 OLMo 2 32B 进行定制化开发,加速自然语言处理领域的研究和创新。

AI2 CEO Oren Etzioni 表示:“我们相信,开源是推动人工智能进步的关键。OLMo 2 32B 的发布,旨在为社区提供一个强大且透明的工具,促进更广泛的合作和创新。”

应用场景:潜力无限

OLMo 2 32B 在多个领域都展现出巨大的应用潜力:

  • 自然语言处理任务: OLMo-2-32B 在文本生成、语言翻译、问答系统等任务中表现出色,能生成高质量的文本内容。
  • 数学和逻辑推理: 模型在数学任务(如 GSM8K 数据集)上进行了专门的训练,能处理复杂的数学问题和逻辑推理任务,适合教育和学术研究场景。
  • 编程辅助: OLMo-2-32B 可以用于代码生成、代码补全和代码解释等,能理解代码逻辑并提供相关建议。
  • 内容创作: 模型可以用于生成文章、故事、诗歌等内容创作,帮助创作者快速生成创意和文本。
  • 聊天机器人: OLMo-2-32B 经过聊天任务的微调,能作为聊天机器人的核心模型,提供自然流畅的对话体验。

可持续发展:计算效率与环保性

OLMo-2-32B 的训练计算量仅为类似模型的三分之一,例如与 Qwen-2.5-32B 相比,其训练能耗显著降低。整个训练过程在 Google Cloud Engine 的 Augusta 集群上完成,通过优化硬件使用和训练策略,大幅降低了计算成本和碳足迹。这表明 AI2 在追求高性能的同时,也注重人工智能的可持续发展。

结论:开源AI的未来

OLMo 2 32B 的发布,不仅是 AI2 的一项重要成就,也是开源人工智能领域的一个里程碑。它证明了开源模型在性能上可以与闭源模型相媲美,甚至超越。随着越来越多的研究机构和开发者加入开源阵营,我们有理由相信,开源AI的未来将更加光明。

项目地址:

参考文献:


>>> Read more <<<

Views: 0

0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注