.hd-box .hd-fr

华为 + DeepSeek 推理性能创新高,技术报告公布

2025-05-19 13:22量子位(金磊)102评

部署超大规模 MoE 这件事,国产芯片的推理性能,已经再创新高了 —— 不仅是“英伟达含量为 0”这么简单,更是性能全面超越英伟达 Hopper 架构!

而做到这一点的,正是华为昇腾;具体而言,共包含两个产品:

之所以能够这般,是因为华为昇腾所采取的“以数学补物理”—— 这种通过数学理论、工具、算法和建模等方式,来弥补硬件和工艺的局限性,实现最大化发挥芯片和系统能力效果。

华为昇腾还不只是“官宣”一下而已,后面更会是全面开源

不仅已经将昇腾在超大规模 MoE 模型推理部署的技术报告分享了出来,在一个月时间内,还会把实现这些核心技术的相关代码也都会陆续开源出来。

那么接下来,我们就来深入了解一下华为昇腾背后的技术实力。

在华为昇腾上推理 DeepSeek

在深挖华为昇腾背后技术创新之前,我们且需了解一下为什么要这么做。

从 2017 年 Google 提出的 Transformer 架构,到 2025 年 DeepSeek V3 / R1 的爆红,大语言模型的重心正在从训练开发转向推理应用落地。

推理能力不仅是大模型能力的“试金石”,各大企业已从“拼模型参数”转向“拼推理效率”:

谁能让大模型在实际应用中跑得更快、更稳、更省资源,谁就能在商业化浪潮中抢占先机。

然而,以 6710 亿参数的 DeepSeek V3 为例,这类超大规模 MoE 模型虽然强大,却给硬件带来三大“成长烦恼”:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论