微软于近日宣布,其开源15亿参数小模型 Phi-1.5 更新支持多模态能力。这款模型现在能够查看和解释图像,成为微软发展历程中的重要里程碑。

据悉,Phi-1.5 模型采用15亿参数,是微软进行研究的重要成果。该模型能够支持多模态能力,包括文本、图像和语音等。这一能力使得用户能够更方便地使用 Microsoft 的产品和服务。

“这对微软来说是一个里程碑,因为它证明你不需要像 OpenAI 的 GPT-4 这样的大型(且运行成本高昂)模型来添加更高级的功能。”Semafor 的研究人员表示。

此次更新是微软不断发展的一个重要举措,旨在为用户提供更加高效、智能的服务。

新闻翻译:

News Title: Microsoft’s 1500M parameter Open Source Model Phi-1.5 Now Supports Multi-Modal Ability

Keywords: Microsoft, Open Source, 1500M parameters, small model, multi-modal ability

News Content:

Recently, Microsoft has announced the update of its open source 1500M parameter small model Phi-1.5, which now supports multi-modal ability. This updated model can now view and interpret images, marking a significant milestone in Microsoft’s development.

据悉,Phi-1.5 模型采用1500M parameters,是微软进行研究的重要成果。该模型能够支持多模态能力,包括文本、图像和语音等。这一能力使得用户能够更方便地使用 Microsoft 的产品和服务。

“这对微软来说是一个里程碑,因为它证明你不需要像 OpenAI 的 GPT-4 这样的大型(且运行成本高昂)模型来添加更高级的功能。”Semafor 的研究人员表示。

此次更新是微软不断发展的一个重要举措,旨在为用户提供更加高效、智能的服务。

【来源】https://www.semafor.com/article/11/01/2023/microsoft-pushes-the-boundaries-of-small-ai-models

Views: 8

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注