**Stability AI 发布 16 亿参数的小型语言模型 Stable LM2 1.6B**
2023 年 3 月 8 日,Stability AI 宣布推出其最新的小型语言模型Stable LM 2 1.6B。该模型基于英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据进行训练,在大多数基准测试中均优于其他参数低于 20 亿个的小型语言模型,包括微软的 Phi-2 (2.7B)、TinyLlama 1.1B 和 Falcon 1B。
Stable LM 2 1.6B 是 Stability AI 在小型语言模型领域取得的最新进展。此前,该公司曾推出过 12 亿参数的 Stable LM 1.2B 和 6 亿参数的 Stable LM 0.6B,这些模型在各自的规模范围内都取得了优异的性能。
与之前的模型相比,Stable LM 2 1.6B 具有以下几个特点:
* 更大的参数规模:Stable LM 21.6B 拥有 16 亿个参数,是 Stable LM 1.2B 的 1.3 倍,是 Stable LM 0.6B 的 2.7 倍。
* 更广泛的语言覆盖:Stable LM 2 1.6B 支持英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语七种语言,而 Stable LM 1.2B 和 Stable LM 0.6B 只支持英语。
* 更强的性能:Stable LM 2 1.6B 在大多数基准测试中均优于其他参数低于 20 亿个的小型语言模型,包括微软的 Phi-2 (2.7B)、TinyLlama 1.1B 和 Falcon 1B。
Stability AI 表示,Stable LM 2 1.6B 将被用于该公司旗下的一系列产品和服务中,包括文本生成、语言翻译、对话式 AI 和代码生成等。该公司还计划将该模型开源,以便研究人员和开发者可以进一步探索其潜力。
Stable LM 2 1.6B 的发布标志着 Stability AI 在小型语言模型领域取得了又一重大进展。该模型的推出将进一步推动小型语言模型的发展,并为各种自然语言处理任务提供更强大的工具。
英语如下:
【来源】https://stability.ai/news/introducing-stable-lm-2
Views: 1