谷歌Gemini 1.5再进化:成本更低、性能更强、响应更快
硅谷,加利福尼亚州 – 谷歌今日宣布推出其旗舰大模型Gemini 1.5的两个全新生产级版本:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002。这两个模型基于今年5月发布的Gemini 1.5的实验性版本,并进行了重大改进,在性能、成本和速度方面都取得了显著提升。
性能提升:数学、代码、长文本和视觉任务表现更出色
新版本Gemini 1.5在多个关键领域展现出显著的性能提升。在数学方面,Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002 在MMLU-Pro(改进版的MMLU基准)和 MATH(内部保留的数学竞赛问题集)中分别取得了约7%和20%的提升。这意味着它们在解决复杂的数学问题方面更加得心应手。
除了数学能力的提升,这两个模型在代码生成、长文本理解和视觉任务方面也表现出色。在代码生成方面,它们在评估视觉理解和Python代码生成时取得了2-7%的提升。在长文本理解方面,它们能够更有效地处理包含大量文本的复杂任务,例如从1000页的PDF中提取信息。在视觉任务方面,它们能够分析长达一小时的视频并从中创建有用的内容。
成本降低:输入和输出费用大幅下降
为了让更多开发者和企业能够使用Gemini 1.5,谷歌还降低了这两个模型的输入和输出费用。自2024年10月1日起,Gemini-1.5-Pro-002 的输入Token价格降低64%,输出Token价格降低52%,增量缓存Token价格降低64%,适用于提示词少于128K Token的情况。这意味着使用Gemini 1.5构建应用程序的成本将显著降低。
速度提升:响应更快,延迟更低
除了性能和成本的提升,Gemini 1.5的新版本还显著提升了响应速度。Gemini-1.5-Flash-002 的速率限制提升至2000 RPM,而 Gemini-1.5-Pro-002 提升至1000 RPM,相比之前分别提升了1000和360。这意味着开发者可以更快地获得模型的响应,从而提高应用程序的效率。
此外,Gemini-1.5-Flash-002 的延迟也大幅降低,每秒输出Token数量也显著提升。这意味着用户在使用Gemini1.5时将体验到更流畅的交互,并获得更快的响应。
更简洁的响应风格,更易于使用
谷歌还根据开发者的反馈,对Gemini 1.5的响应风格进行了调整,使其更加简洁。这意味着模型在回答问题时将提供更简洁的答案,从而提高使用便利性并降低成本。
未来展望:持续改进,扩展应用场景
谷歌表示,将继续对Gemini 1.5进行改进,并扩展其应用场景。未来,Gemini 1.5将被应用于更多领域,例如医疗保健、教育和金融,为用户提供更智能、更便捷的服务。
总结
谷歌Gemini 1.5的最新版本在性能、成本和速度方面都取得了显著提升,使其成为更强大、更具成本效益和更易于使用的AI模型。这一更新将进一步推动AI技术的发展,并为开发者和企业提供更多可能性。
Views: 0