.hd-box .hd-fr

清华厦大等提出“无限长上下文”技术:100 万大海捞针全绿,Llama\Qwen\MiniCPM 都能上分

2024-11-10 10:58量子位(LLMxMapReduce)11评

大模型的记忆限制被打破了,变相实现“无限长”上下文。最新成果,来自清华、厦大等联合提出的LLMxMapReduce 长文分帧处理技术。

LLMxMapReduce 技术通过将长上下文切分为多个片段,可以让模型并行处理多个片段,并从不同片段中提取关键信息,然后汇总成为最终的答案。

特别地,团队提出结构化通信协议和上下文置信度校准机制,实现对跨片段信息更有效的处理。这项技术可以打破大模型的记忆限制,实现上下文长度无限稳定拓展。

LLMxMapReduce 技术可作为大模型的长文本上分神器—— 它对大模型长文本能力具有普遍增强作用,且在文本不断加长的情况下,仍能保持稳定性能、减少长文本的掉分情况。

比如结合了 LLMxMapReduce 框架之后的 Llama3-70B-Instruct x MapReduce 模型得分超越了包含 Kimi、GPT-4 在内的知名闭源和开源模型以及其他基于 Llama3-70B-Instruct 的分治方法(即 LongAgent 和 Chain-of-Agents)。

此外,LLMxMapReduce 框架展现出较强的通用性,结合 Qwen2-72B 和 MiniCPM3 也取得了优异的成绩。

LLMxMapReduce 无限长文本技术原理

在大数据领域,MapReduce 是一种分布式并行编程框架,具有横向扩展的数据处理能力。受到 MapReduce 所体现的“分而治之”思想的启发,研究人员设计了一种面向大模型的采用分治策略的长文本处理框架,称为 LLMxMapReduce。

通过将长上下文切分为多个片段,LLMxMapReduce 让模型并行处理多个片段,并从不同片段中提取关键信息,然后汇总成为最终的答案,从而实现无限长文本。这一技术对模型长文本能力具有普遍增强作用,且在文本不断加长的情况下,仍能保持稳定性能、减少长文本的掉分情况。

最近,也有一些同类型的分治式长文本处理方法,比如 LongAgent 和 Chain-of-Agents。相比于模型一次处理完整长文档,这类分治式长文本处理既有优势,也有不足。

优势主要在于:长度可扩展,不受限于模型本身的窗口大小,理论上可以支持任意长度输入。

劣势主要在于:将一个完整的长文档切分为多个片段,可能会破坏跨片段的关键信息,导致模型根据某个片段“断章取义”,产生错误结论。团队分析,会被切分片段影响的信息有两类:

为了解决这两类问题,LLMxMapReduce 分别设计了以下方案:

{    Extracted Information: XXX # 与问题相关的关键信息    Rationale: XXX # 得出中间结果的推理过程    Answer: XXX # 根据当前片段的中间结果    Confidence Score: XXX # 模型对当前片段的结果的置信度,范围为1到5之间}

LLMxMapReduce 方法的流程图如下所示:整体分为MapCollapseReduce三个阶段。

首先要将长文本切分成多个小片段,这些片段可以并行处理,从而提高效率。

然后在 Map 阶段,使用大模型对每个片段进行分析,然后应用上文所述的结构化通信协议,将提取的信息整合成结构体形式,以便后续处理。

接下来,在 Collapse 阶段,如果所有片段的结果总长度超过模型的最大处理限制,模型将多个结构体压缩为一个结构体,以减少上下文长度。在处理冲突信息时,模型会考虑置信度进行整合。

最后,在 Reduce 阶段,模型根据压缩后的信息汇总出最终的答案。它会优先考虑置信度较高的结果,从而确保得到的答案准确无误。

通过以上工作流程,LLMxMapReduce 能够更有效地处理长文本,避免因切分导致的信息丢失或错误结论,从而提高最终结果的准确性。

大模型长文本上分神器

为了验证 LLMxMapReduce 技术的有效性,研究人员在业内权威的长文本评测 InfiniteBench 榜单上对不同模型进行了评测,InfiniteBench 是一个综合性榜单,最长长度超过 2000k token。

研究人员和很多方法进行了对比,其中对比的基线共有三类:

闭源模型:

包括 GPT-4、Claude 2、Kimi-Chat,其中 GPT-4 和 Claude 2 的得分参照 InfiniteBench 原文,Kimi-Chat 为重新测量的得分;

开源模型:

包括 YaRN-Mistral、Yi-6B-200K、Yi-34B-200K 和 Qwen2-72B-Instruct,其中 YaRN-Mistral、Yi-6B-200K、Yi-34B-200K 的得分参照 InfiniteBench 原文,Qwen2-72B-Instruct 是自行测量的得分;

其他基于分治的长文本处理框架:

包括 LongAgent 和 Chain-of-Agents。这两个分治框架的不同点在于处理跨片段信息的方式不同。

LongAgent 构建了一个 Leader Agent 来处理跨片段冲突。当不同的 Chunk 得出的答案不同时,Leader Agent 会组织重新阅读冲突的片段,得出最终答案。

这种重复阅读的机制带来较大的时间开销,并且 LongAgent 的通信内容比较单一,Leader Agent 处理冲突的能力有限。相比之下,LLMxMapReduce 的结构化通信协议包含的信息更为丰富。

Chain-of-Agents 通过顺序逐一读取各个 Chunk 来阅读全文。

由于没有显式地处理冲突信息,可能会导致后续 Chunk 的信息覆盖历史 Chunk 中的关键信息。相比之下,LLMxMapReduce 利用校准后的置信度来更好的处理跨片段冲突。

具体实验结果如下:

可以看到,结合 LLMxMapReduce 框架之后,Llama3-70B-Instruct x MapReduce 以 68.66 的最高平均分数,超越了闭源、开源模型以及其他基于 Llama3-70B-Instruct 的分治策略(即 LongAgent 和 Chain-of-Agents)。

此外,LLMxMapReduce 框架展现出较强的通用性,结合 Qwen2-72B 和 MiniCPM3 也取得了优异的成绩。

研究人员同样分析上下文置信度校准和结构化通信协议对框架性能的影响,在实验中逐步将这两个机制移除。实验结果显示,去除上下文置信度校准机制导致所有任务的性能下降。如果没有这两个机制,性能将会显著下降。这些结果证明了这两个机制在 LLMxMapReduce 框架中的关键作用。

100 万上下文大海捞针全绿

大海捞针(Needle-in-a-haystack ) 是一个在大模型领域广泛应用的测试,用于评估大语言模型在处理长文本时识别特定事实的能力。为了评估 LLMxMapReduce 框架在处理极长文本方面的表现,研究人员将大海捞针测试的文本长度扩展至 1280K 个 token。

测试结果显示全绿:

实验结果表明,采用 LLMxMapReduce 方法的 Llama3-70B-Instruct 能够有效处理长度达到 1280K token 的序列,展示了该框架在处理超长序列时的卓越能力。

为了评估不同方法在处理长文本时的响应速度,研究人员进行了一项速度实验,使用 20 个测试示例,每个示例包含 128K 个 token。实验结果显示,因为更好地利用了分段并行,LLMxMapReduce 的处理速度比 128K 模型标准解码更快。

而且,由于结构化通信协议和上下文置信度校准机制不影响框架的并行推理,相比于 LongAgent 和 Chain-of-Agents 这两个同类型的分治框架,LLMxMapReduce 也具有明显的速度优势。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论