英伟达提出全新 Star Attention:10 倍加速大语言模型推理,登顶 Hugging Face 论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的 Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

当下的手机及 AIPC 中都会安装本地大模型,然而上下文长度增加,推理时的计算成本也会显著增长。最明显的一个后果就是,用户输入问题后需要等待很久才能看到结果。

为此,已有多种优化方案提出,例如 Flash Attention,而 11 月 26 日英伟达提出的 Star Attention 机制,可用于提升 Transformer 模型在处理长序列时的效率和准确性。

值得一提的是,这篇文章受到了广泛的关注,登顶 Hugging Face 每日论文榜首。

论文地址:https://arxiv.org/abs/2411.17116

Star Attention 如何降低推理成本

在了解 Star Attention 如何改进大模型推理前,让我们先看看当前大模型的推理过程涉及的两个步骤:

1)prompt 编码,即模型处理输入并在缓存中存储 KV(键值)向量;

2)token 生成,即模型关注 KV 缓存并自回归生成新令牌,同时用新的 KV 向量更新缓存。

在许多长上下文任务中,输入由一个长上下文后跟一个短查询和一个短答案组成。当大模型的上下文变得越来越长之后,回答查询所需的信息通常局限在上下文的小部分内,意味着上下文只需关注附近的 token,而查询 token 需要关注所有之前上下文涉及的内容。

Star Attention 下的两阶段推理

系统中所有设备被分组为多个主机(host),其中一个主机被标记为「查询」主机。输入序列分为两个阶段处理。

阶段一:上下文编码

输入的上下文部分被分割成较小的块,并分配到各个主机。除了第一个块之外,所有块的前面都加上一个初始块,称为「锚点」块(anchor block)。每个主机处理其分配的块,并存储非锚点部分的 KV 缓存。

阶段二:查询编码和 token 生成

输入查询被广播到所有主机,在每个主机中,它首先访问在第一阶段计算出的本地 KV 缓存。然后「查询」主机通过聚合所有主机的 softmax 归一化统计数据来计算全局注意力。这个过程对于每个生成的 token 都会重复。

用一个不那么严谨的例子来概述上面的过程:想象一场烹饪比赛(上下文 token),每个厨师(主机)负责准备一道菜的一部分(块)。

为了确保味道一致,每个厨师除了准备自己的部分,还在前面加了一点「锚点」调料(锚点块)。每个厨师准备好自己的部分后,记住自己部分的口味(KV 缓存)。

阶段二的查询编码和 token 生成可视为:评委(查询 token)来品尝菜肴,并决定下一道菜的口味(生成新 token)。评委先品尝每个厨师的部分,看看哪个部分最符合他们的口味。

最后,评委汇总所有厨师的意见,确定下一道菜的口味,并告诉厨师们。

Star Attention 的性能提升

Star Attention 带来的性能提升,主要体现在以下两个方面:

1)高达 11 倍的加速

在多个长上下文基准测试上,Star Attention 所加持的 8B Llama3 的推理速度显著提升,随着序列长度增加,加速比从 1.1x 提升到 2.7x。

而在参数量更大的 Llama3.1-70B 上,推理的加速比提升更为显著。

与此同时,对比采用全局注意力的基准,Star Attention 相对准确率的降低只在 0~3% 范围内。

随着上下文长度的增加,star attention 推理的准确性相比全局注意力几乎相同,但推理计算成本显著下降

在更长的上下文尺度(128K)中,上下文编码过程中不同块的大小,也会影响推理的准确性和速度。块尺寸越大,Star Attention 的准确性越高。

在 RULER 基准测试上,不同块大小对 Star Attention 准确性的影响,块大小范围从 4K 到 32K,适用于序列长度为 128K 的 Llama-3.1-8B instruct 模型

用于评估的 RULER,包含了 13 个任务,分为 4 个领域:大海捞针(检索)、多跳追踪、聚合和问答,

不同任务中,全局注意力和 Star Attention 的准确性差异对比

而在上下文长度更大,达到 1048K 时,Star Attention 的推理准确性依旧保持在原基准 90%,推理加速比达到了 10.8×~16.9×。

而在更大的 Llama3.1-70B 中,Star Attention 能实现更大的加速比,同时保持相似水平的准确率下降。

由于其运行机制不涉及具体模型,Star Attention 可以无缝集成到大多数通过全局注意力训练的基于 Transformer 的 LLMs 中,无需额外的模型微调。

由于减少了推理的计算成本,Star Attention 显著减少了内存需求,使得在本地设备(如手机,笔记本中)用 LLM 处理更长的序列成为可能。

实验发现,将块大小设置为总序列长度的约四分之一,可以在精度和速度之间取得最佳平衡。而用户也可以根据需求调整块大小,以在计算效率和精度之间进行权衡。

结论

未来的研究,会尝试将 Star Attention 扩展到更长的序列(最长可达 1M)和更大的模型,并希望能观察到甚至更的加速,同时保持相似水平的准确率。同时专注于优化「锚块」机制,并在更复杂的长上下文任务上提高性能,以增强 Star Attention 的可扩展性和稳健性。

总的来看,对于想要开发部署本地大模型的厂商,Star Attention 是一项不容错过的技术。使用 Star Attention 后,本地 LLM 能够更快地回复用户,还可在有限的内存中兼容更长的上下文序列,从而在 RAG 任务中阅读更长的文本。

而对于云端大模型的提供商,Star Attention 能够在几乎不影响用户体现的前提下,显著提升推理成本,实现「降本增效」,同时减少能源消费(碳足迹)。

通过在多个主机间分配上下文处理,Star Attention 使上下文长度能够随主机数量线性扩展。

参考资料:

  • https://arxiv.org/abs/2411.17116

本文来自微信公众号:新智元(ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享