.hd-box .hd-fr

英伟达 Q3 狂卖 50 万 GPU,AI 爆火背后是显卡的争夺

2023-12-03 20:58新智元(alan)31评

据统计,英伟达在第三季度大约卖出了 50 万台 H100 和 A100 GPU,大语言模型爆火的背后,是众组织机构对 GPU 的争夺,是英伟达近千吨的显卡出货量。

据市场跟踪公司 Omdia 的统计分析,英伟达在第三季度大约卖出了 50 万台 H100 和 A100 GPU!

此前,Omdia 通过英伟达第二季度的销售额,估计其大概卖出了 900 吨 GPU!

大语言模型火爆的背后,英伟达建立起了强大的显卡帝国。

在人工智能的大潮之下,GPU 成为了各机构、公司,甚至是国家在全球范围内争夺的对象。

在本财年第三季度,Nvidia 在数据中心硬件上获得了 145 亿美元的收入,比去年同期几乎翻了两番。

—— 这显然得益于随着人工智能和高性能计算(HPC)的发展而变得炙手可热的 H100 GPU。

市场跟踪公司 Omdia 表示,Nvidia 售出了近 50 万个 A100 和 H100 GPU,庞大的需求量也导致了,基于 H100 的服务器需要 36~52 周的时间才能交付。

从上图可以看出,Meta 和微软是最大买家。它们各自采购了多达 15 万个 H100 GPU,大大超过了谷歌、亚马逊、甲骨文和腾讯采购的数量(各 5 万个)。

值得注意的是,大多数服务器 GPU 都供应给了超大规模云服务提供商。而服务器原始设备制造商(如戴尔、联想、HPE)目前还无法获得足够的 AI 和 HPC GPU。

Omdia 预计,到 2023 年第四季度,Nvidia 的 H100 和 A100 GPU 的销量将超过 50 万台。

不过,几乎所有大量采购 Nvidia H100 GPU 的公司都在为人工智能、HPC 和视频工作负载开发定制自己的芯片。

因此,随着他们转向使用自己的芯片,对 Nvidia 硬件的采购量可能会逐渐减少。

上图统计了服务器的情况,2023 年服务器出货量同比下跌了 17% 到 20%,而服务器收入则同比上涨了 6% 到 8%。

Omdia 云和数据中心研究实践总监 Vlad Galabov 和数据中心计算和网络首席分析师 Manoj Sukumaran 预计,到 2027 年,服务器市场价值将达到 1956 亿美元,比十年前翻一番多。

随着大公司纷纷转向超异构计算,或使用多协处理器来优化服务器配置,服务器处理器和协处理器的需求将持续增长。

目前,就运行人工智能训练和推理的服务器而言,用于大型语言模型训练的最流行服务器是配置了 8 个 H100 / A100 GPU 的 Nvidia DGX 服务器,以及亚马逊的配置了 16 个定制协处理器(Inferentia 2)的 AI 推理服务器。

而对于配备了许多定制协处理器的视频转码服务器,最流行的是拥有 20 个 VCU(视频编码单元)的谷歌视频转码服务器,以及使用了 12 个可扩展视频处理器的 Meta 视频处理服务器。

随着一些应用的需求逐渐成熟,构建优化定制处理器的成本效益会越来越高。

媒体和人工智能会是超异构计算的早期受益者,之后数据库和网络服务等其他工作负载也会出现类似的优化。

Omdia 的报告指出,高度配置的人工智能服务器的增加正在推动数据中心物理基础设施的发展。

例如,今年上半年的机架配电收入比去年增长了 17%,在需要液体冷却解决方案的趋势之下,数据机柜热管理收入有望在 2023 年实现 17% 的增长。

另外,随着生成式人工智能服务的普及,企业将广泛采用 AI,而当前人工智能部署速度的瓶颈可能是电力供应。

热情的买家们

除了上面提到的巨头们,「民间」也有各种组织和公司纷纷采购 NVIDIA 的 H100,以发展自己的业务,或者投资未来。

Bit Digital 是一家提供数字资产和云计算服务的可持续数字基础设施平台,总部位于纽约。公司已与客户签订条款,开展 Bit Digital AI 业务,为客户的 GPU 加速工作负载提供支持。

根据协议,Bit Digital 将为客户提供最少 1024 个、最多 4096 个 GPU 的租赁服务。

同时,Bit Digital 公司已同意购买 1056 块 NVIDIA H100 GPU,并已支付了首笔定金。

由美国公司 Del Complex 创建的 BlueSea Frontier Compute Cluster(BSFCC)本质上是一艘巨大的驳船,包含 10000 个 Nvidia H100 GPU,总价值 5 亿美元。

据路透社报道,一家名为 Voltage Park 的非营利组织以 5 亿美元的价格收购了 24000 个 Nvidia H100 芯片。

Volatage Park 是一家人工智能云计算组织,由亿万富翁 Jed McCaleb 资助,计划为人工智能项目租赁计算能力。

Voltage Park 提供的 GPU 价格低至每 GPU 每小时 1.89 美元。按需租赁的客户可以租用 1 到 8 个 GPU,希望租用更多 GPU 的用户则需要保证一定的租赁期限。

与之相比,亚马逊通过 8 台 H100 的 P5 节点为用户提供按需服务,但价格要贵得多。

以 8 卡的节点来计算,AWS 的收费为每小时 98.32 美元,而 Voltage Park 的收费为每小时 15.12 美元。

在人工智能的热潮之下,英伟达也是雄心勃勃。

据英国《金融时报》报道,这家硅谷芯片巨头希望提高 H100 处理器的产量,目标是明年出货 150 万至 200 万台。

由于 ChatGPT 等大型语言模型的爆火,今年 5 月,Nvidia 市值飙升,成功跻身万亿美元俱乐部。

作为开发大型语言模型的基础组件,GPU 成为了人工智能公司,甚至是国家在全球范围内争夺的对象。

《金融时报》称,沙特阿拉伯和阿联酋已经购买了数千台英伟达的 H100 处理器。

与此同时,有富裕资金的风险投资公司,也忙着为投资组合中的初创公司购买 GPU,以建立自己的人工智能模型。

GitHub 前首席执行官 Nat Friedman 和 Daniel Gross 曾支持过 GitHub、Uber 和其他许多成功的初创公司,他们购买了数千个 GPU,并建立了自己的人工智能云服务。

这个名为仙女座集群(Andromeda Cluster)的系统,拥有 2512 个 H100 GPU,能够在大约 10 天内训练出一个 650 亿参数的人工智能模型。虽然不是目前最大的模型,但也相当可观。

尽管只有两位投资人支持的初创企业,才能使用这些资源。此举还是受到了好评。

Anthropic 的联合创始人 Jack Clark 表示,个人投资者在支持计算密集型初创企业方面所做的工作超过了大多数政府。

相比于第三季度的 145 亿,第二季度,Nvidia 售出了价值 103 亿美元的数据中心硬件。

对于这个成绩,Omdia 曾作出估计:一个带有散热器的 Nvidia H100 计算 GPU 的平均重量超过 3 公斤(6.6 磅),而 Nvidia 在第二季度出货了超过 30 万台 H100,算下来总重量超过 900 吨(180 万磅)。

让我们把这 900 吨具象化一点,它相当于:

4.5 架波音 747

11 架航天飞机轨道飞行器

215827 加仑水

299 辆福特 F150

181818 台 PlayStation 5s

32727 只金毛猎犬

有网友对此表示:

不过也有媒体觉得这个估计不太准确。因为 Nvidia H100 有三种不同的外形,重量也各不相同。

Nvidia H100 PCIe 显卡重 1.2 千克,而带散热片的 OAM 模块的最高重量为 2 千克。

假设 Nvidia H100 出货量的 80% 是模块,20% 是显卡,那么单个 H100 的平均重量约为 1.84 千克左右。

不管怎样吧,这都是一个惊人的数字。而且英伟达在第三季度的销量是显著增长的,如果按照 50 万块 GPU 每块 2 千克,那么总重量就是 1000 吨。

—— 现在的显卡都是按吨卖的了,不知道大家怎么看?

参考资料:

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

下载IT之家APP,分享赚金币换豪礼
相关文章
大家都在买广告
热门评论
查看更多评论