近日,国内知名技术公司月之暗面宣布,旗下Kimi开放平台的上下文缓存(Context Caching)存储费用将降价50%。此举旨在为开发者降低成本,提升模型响应速度,进一步推动长文本大模型技术的普及。

价格调整详情

根据月之暗面的官方公告,Kimi开放平台的上下文缓存Cache存储费用将由原来的10元/1M tokens/min降低至5元/1M tokens/min。新的价格将于2024年8月7日00:00:00正式生效,届时所有计费的cache存储费用将按照新价格计算。

markdown
- 原价:10元/1M tokens/min
- 新价:5元/1M tokens/min
- 生效时间:2024年8月7日00:00:00

公测开启

7月1日,Kimi开放平台正式开启上下文缓存功能的公测。官方表示,在API价格不变的前提下,该技术可为开发者降低最高90%的长文本旗舰大模型使用成本,并显著提升模型响应速度。

技术优势

上下文缓存技术是Kimi API助手的一项重要创新,它通过优化数据存储和访问方式,实现了对长文本大模型的低成本、高效率使用。以下是该技术的几个主要优势:

  • 成本降低:在API价格不变的前提下,开发者使用上下文缓存功能,可以降低最高90%的长文本大模型使用成本。
  • 响应速度提升:通过缓存机制,模型响应速度得到显著提升,从而提高开发者的工作效率。
  • 通用性:Kimi API助手支持多种编程语言,如Golang,开发者可以根据自己的需求灵活使用。

行业影响

月之暗面的这一举措,无疑为国内长文本大模型技术的发展注入了新的活力。在当前人工智能技术快速发展的背景下,降低开发成本、提升技术效率,对于推动整个行业的进步具有重要意义。

开发者反馈

对于Kimi开放平台的这一政策,许多开发者表示欢迎。他们认为,降价后的上下文缓存功能将大大降低开发成本,提高工作效率,有助于推动长文本大模型技术的广泛应用。

未来展望

月之暗面表示,未来将继续优化上下文缓存技术,并逐步扩大公测范围,让更多的开发者受益。此外,公司还将推出更多创新技术,助力人工智能行业的发展。

总之,Kimi开放平台上下文缓存存储费用的降价,将为开发者带来实实在在的好处,同时也为我国人工智能技术的发展注入了新的动力。


read more

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注