近日,国内知名技术公司月之暗面宣布,旗下Kimi开放平台的上下文缓存(Context Caching)存储费用将降价50%。此举旨在为开发者降低成本,提升模型响应速度,进一步推动长文本大模型技术的普及。
价格调整详情
根据月之暗面的官方公告,Kimi开放平台的上下文缓存Cache存储费用将由原来的10元/1M tokens/min降低至5元/1M tokens/min。新的价格将于2024年8月7日00:00:00正式生效,届时所有计费的cache存储费用将按照新价格计算。
markdown
- 原价:10元/1M tokens/min
- 新价:5元/1M tokens/min
- 生效时间:2024年8月7日00:00:00
公测开启
7月1日,Kimi开放平台正式开启上下文缓存功能的公测。官方表示,在API价格不变的前提下,该技术可为开发者降低最高90%的长文本旗舰大模型使用成本,并显著提升模型响应速度。
技术优势
上下文缓存技术是Kimi API助手的一项重要创新,它通过优化数据存储和访问方式,实现了对长文本大模型的低成本、高效率使用。以下是该技术的几个主要优势:
- 成本降低:在API价格不变的前提下,开发者使用上下文缓存功能,可以降低最高90%的长文本大模型使用成本。
- 响应速度提升:通过缓存机制,模型响应速度得到显著提升,从而提高开发者的工作效率。
- 通用性:Kimi API助手支持多种编程语言,如Golang,开发者可以根据自己的需求灵活使用。
行业影响
月之暗面的这一举措,无疑为国内长文本大模型技术的发展注入了新的活力。在当前人工智能技术快速发展的背景下,降低开发成本、提升技术效率,对于推动整个行业的进步具有重要意义。
开发者反馈
对于Kimi开放平台的这一政策,许多开发者表示欢迎。他们认为,降价后的上下文缓存功能将大大降低开发成本,提高工作效率,有助于推动长文本大模型技术的广泛应用。
未来展望
月之暗面表示,未来将继续优化上下文缓存技术,并逐步扩大公测范围,让更多的开发者受益。此外,公司还将推出更多创新技术,助力人工智能行业的发展。
总之,Kimi开放平台上下文缓存存储费用的降价,将为开发者带来实实在在的好处,同时也为我国人工智能技术的发展注入了新的动力。
Views: 0