采用 CoWoS 封装,消息称英伟达中国特供版 H20 在 LLM 推理中比 H100 更快

2023-11-09 20:05IT之家 - 故渊

IT之家 11 月 9 日消息,国外科技媒体 Semianalysis 近日发布付费文章,表示三款中国特供版 AI 芯片之一,在 LLM 推理中,要比 H100 快 20% 以上。

IT之家此前报道,英伟达即将推出 HGX H20、L20 PCle 和 L2 PCle 接口芯片,这三款芯片均基于英伟达 H100 改良而来,官方已经生产出这些 GPU 样品,并预估下月投入批量生产。

消息称英伟达预计最快将于 11 月 16 号之后公布,国内厂商最快将在这几天拿到样品。

这篇付费文章中详细介绍了英伟达 H20、L20 和 L2 的详细信息,涉及 FLOPS 数据、NVLink 带宽、功耗、内存带宽、内存容量、芯片尺寸等。

文章中写道:

更为重要的是,在这三款中国特供版 GPU 中,其中一款(并未明确是哪款,但应该是指 H20)在 LLM 推理中要比 H100 快 20%,而且性能接近于英伟达明年年初发布的新款 GPU。

报道中还提及的一点是,英伟达 HGX H20 采用 HGX 格式,采用台积电的 CoWoS 封装。而另外两款芯片主要基于 Ada,面向游戏领域,不需要复杂的封装。

该文章还预测了英伟达 2024 和 2025 财年业绩,此前消息称由于美国不断地加码,英伟达丢失了超过价值 50 亿美元的订单,而借助这些中国专供 GPU,会改善英伟达的业绩表现。

相关阅读:

消息称英伟达正开发中国特供版 AI 芯片 HGX H20、L20 PCle 和 L2 PCle

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享