.hd-box .hd-fr

月之暗面 Kimi 开放平台“上下文缓存”开启公测:首 Token 延迟降低 83%、适用于文本重复引用场景

2024-07-01 21:10IT之家(归泷(实习))47评

IT之家 7 月 1 日消息,月之暗面今日官宣 Kimi 开放平台上下文缓存(Context Caching)功能开启公测。官方表示,该技术在 API 价格不变的前提下,可为开发者降低最高 90% 的长文本旗舰大模型使用成本,并提升模型响应速度。

IT之家附 Kimi 开放平台上下文缓存功能公测详情如下:

技术简介

据介绍,上下文缓存是一种数据管理技术,允许系统预先存储会被频繁请求的大量数据或信息。当用户请求相同信息时,系统可以直接从缓存中提供,无需重新计算或从原始数据源中检索。

适用场景

上下文缓存适用于频繁请求,重复引用大量初始上下文场景,可降低长文本模型费用,提高效率。官方表示费用最高降低 90 %,首 Token 延迟降低 83%。适用业务场景如下:

计费说明

上下文缓存收费模式主要分为以下三个部分:

Cache 创建费用

Cache 存储费用

Cache 调用费用

公测时间和资格说明

相关阅读:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论