GTC 对话黄仁勋:我眼中的 GPU,和别人有很大差别

作者 | 宛辰

编辑 | 靖宇

气氛突然严肃了起来。

「有媒体认为你要么是 AI 时代的达芬奇,要么是 AI 时代的奥本海默,你怎么看?」

「奥本海默是造炸弹的,我们(英伟达)不干这个。」面对这个多少有点戏谑的问题,英伟达创始人、CEO 黄仁勋迟疑片刻,非常认真地回答了出来。

当地时间 3 月 19 日,以堪比流行巨星的热度完成了 GTC 2024 的开场演讲后第二天,黄仁勋接受了全球媒体采访。

黄仁勋给在场媒体重新解释了一遍「演唱会」上的要点|图片来源:极客公园

无论是宏大问题例如「AGI 何时到来」、「英伟达如何看待中国市场」,或者是具体到新推出的 NIM 软件如何应用,这位全球市值第三公司的掌舵人,都能将问题分解并抽象成更容易理解的层次,用简单的比喻回答出来,虽然其中可能不乏「太极」的嫌疑,但至少令人难以怀疑回答者的诚恳。

两万亿的市值新高度下,老黄认为,GPU 芯片市场,不是英伟达的追求 ——「英伟达不造芯片,英伟达造数据中心」,为此,英伟达搭建了所有:硬件、软件、服务,让客户决定怎么购买自己的数据中心。

GTC 2024 Keynote 演讲中,老黄展示的 5 个要点:新工业革命(加速计算和生成式 AI)下,英伟达的新基建包括:Blackwell 平台;NIMS;NEMO 和 NVIDIA AI Foundry;Omniverse 和 ISAAC 机器人。|图片来源:Nvidia

01.GTC 新品的中国市场计划

问:新的网络和技术计划向中国销售多少?有任何中国特定 SKU 的信息可以披露吗?是否为该市场做出了任何考虑或改变?

黄仁勋:我还没有向你宣布这一点,你很贪婪(哈哈),这就是全部答案。现在对于中国,我们有 L20 和 H20 芯片符合出口要求,我们正在尽最大努力为中国市场组织调配资源。

02.AI Foundry 的目标

问:你在主题演讲里提到 AI Foundry 正在许多企业起作用,这个计划的总体战略和长期目标是什么?

黄仁勋:AI Foundry 的目标是构建软件。这不是指软件作为工具,任何人都有这样的软件。很久以前创建的两个最重要的软件,一个叫做 Office,它让软件变得 RTS(Real-Time Software,实时软件)。

另一个非常重要的软件叫做 cuDNN(CUDA 深度神经网络库)。我们有 AI 所有这些不同的。未来的库是一个微服务,因为未来的库不仅仅用数学来描述,还用 AI 来描述。未来,它们都将变成 NIMs(微服务)。

这些 NIMs 是超级复杂的软件,你所要做的就是来到我们的网站。你可以选择用户在那里,或者下载它、在另一个云端运行它,或者下载在你的本地计算机上运行。当运行你的工作站、你的数据中心时,这项服务将使它们非常高效,所以这是一种在环境中使用的新方式。现在,当你作为一个企业运行这些库时,我们有一个软件许可(Liscence)的授权操作系统可用,你可以以 4500 美元 / GPU / 年的价格使用这些服务。

03.Blackwell 定价

问:你之前说最新一代 AI 芯片 Blackwell 的定价在 3 万至 4 万美元,有更精确的信息吗?

黄仁勋:这很难说,我也只是试图让大家对我们产品的定价有一定体感,并不打算给出具体报价。

Blackwell 系统的定价非常不同,因为每个人要的配置不同。如果不仅使用 Blackwell,Blackwell 系统通常包括 NV-Link 在里面,所以不同系统的定价不同。像往常一样,定价范围通常视 TCO(总体拥有成本)而定。

英伟达不造芯片,英伟达造数据中心,为此我们搭建了所有任务,引入所有软件,调整它使数据中心系统尽可能地运转良好。然后,疯狂的部分来了,我们将数据中心聚合成更小的部分,允许客户根据自己的特定需求对其进行修改,这包括网络、存储、控制平面、安全和管理模块,想办法把数据中心整合到客户的系统中,最终,客户决定如何购买它,所以跟过去销售芯片不同,Blackwell 的定价不是芯片的事,我们的商业模式也反映了这一点。

英伟达的机会不是 GPU 芯片,是数据中心,数据中心正在快速走向加速,这是每年 2500 亿美元的市场,并以每年 20% 至 25% 的速度增长,这主要是由于 AI 方面的需求。其中,英伟达会占据重要的份额,从 1 万亿美元升至 2 万亿美元,我认为是合理的。

黄仁勋:你说的 GPU,和我说的 GPU,脑海中想象的差距非常大|图片来源:极客公园

04.Sam Altman 要扩张到芯片行业

问:Sam Altman 一直在与芯片业的人们谈论扩大 AI 芯片的规模。他和你谈过这个问题吗?

黄仁勋:我不知道他的意图。他认为生成式 AI 会变得很大,在这一点我很认同。

今天计算机产生像素的方式是从数据集中检索数据,处理数据,然后传递数据。在整个过程中,人们认为需要消耗的能源非常少,但这恰恰相反。原因是每次你触摸手机、每个提示,需要与数据集赛跑并返回。从数据集中检索数据,使用 CPU 收集所有必要的部分,然后以一种从推荐系统的角度看有意义的方式组合信息,然后将结果信息发送回用户,这个过程需要大量的计算。

这就像每次问我一个问题,我都需要跑回办公室检索信息,这需要大量的精力。未来,越来越多的计算将是生成的,而不是基于检索的。当然,这个生成过程必须是智能的、与上下文相关的。我相信,未来人们电脑上的几乎每一个像素、每一次交互都将通过生成过程产生,我相信 Sam 也这么认为。希望通过 Blackwell 新一代架构能为生成式 AI 这个领域做出重大贡献。现在大多数体验还是基于检索的,但是如果未来每个人的人机交互都是生成式的体验,我会很惊讶。这是一个巨大的机遇。

05.个人大模型会是什么样子?

问:我完全同意你对未来软件的定义,我们的生活也在通过 LLM 发生很大变化。在基础模型方面,你认为未来会是什么样的?

黄仁勋:核心是,我们如何拥有个人的大模型?有一些方式可以做到。开始,我们认为这个过程可能需要微调(fine tuning),在持续的使用过程中,持续微调。

但是,正如你所知,微调是相当耗时的。然后我们发现了提示词工程(prompt engineering),发现了上下文学习(context learning),发现了工作环境(working environment)等等。

我认为答案将是所有这些的组合。在未来,你可以通过只微调一层叫 Lora 的权重(weights),锁定其他部分不必微调,从而低成本地做微调,你可以做提示词共创、上下文学习、增加模型记忆,所有这些成就了你独特的大模型,可以在云端运行,也可以在你的本地电脑上运行。

06.对 AI 芯片初创公司的看法

问:昨天在你的主题演讲后,芯片公司 Groq 发推文说自家芯片跑得仍然更快,你怎么看 AI 芯片初创公司的评论?

黄仁勋:我还没了解那么多(哈哈),不评论了。

任何以 token 方式做生成的模型都需要其独特的方式,因为 Transformer 不是任何一个模型的名称。

这些模型总体基于 Transformer 技术,都利用了 Transformer 注意力机制,但模型与模型之间存在巨大差别。有的模型用了混合专家模型(Mixture of Experts),混合模型里有的是两个专家模型,有的是四个专家模型,这些模型等待消息,以及路由分发,里面的一切步骤都不同,模型中的每一个都需要特殊优化。

此时,如果计算单元被设计成只能以特定的方式、做特定的事情,它就是一个可配置的电脑,而不是可编程配置的计算机,就无法受益于软件创新的速度和潜力。

就像 CPU 的奇迹不可低估一样,这么多年,CPU 一直是 CPU 的原因,是它克服了这些年来设置在 PC 主板上的可配置硬件,软件工程师的才能可以通过 CPU 来实现。相反,如果你把它固定在芯片上,你就断了软件工程师能带给芯片的聪颖智慧。

这就是英伟达芯片能够在不同的 AI 模型架构(从 AlexNet 一直到 Transformer)下,都能表现出色的原因,英伟达找到了一种方法,从一种非常专业的计算形式中受益。芯片在这里被用来促进软件,而英伟达的工作是促进发明,促进像 ChatGPT 的发明。

07.机器人空间模拟如何利用语言模型?

问:你讲述了使用生成式 AI 和模拟 / 仿真(simulation)来大规模训练机器人,但是有很多事情我们不知道如何很好地模拟,特别是当涉及到结构性的环境,如何突破限制继续训练机器人?

黄仁勋:有多种方法可以做到这一点。首先,你可以在我们的语言模型上下文中构建你的问题或观点。

大型语言模型以不受约束和非结构化的方式运行,这同时也是它的潜力之一。它从文本中学到了很多东西,但可能不适合泛化。它们如何在空间泛化是一种「魔力」,机器人的 ChatGPT 时刻可能就在眼前。

为了克服这个问题,你可以指定上下文和问题,例如告诉它处在特定条件的厨房中。通过应用 ChatGPT 的魔力,机器人可以有效地泛化并生成对软件有意义的 token。一旦你的计算机感官识别了这些 token,机器人可以根据这些例子进行归纳。

08.预判下一个 ChatGPT 时刻

问:你提到一些行业先迎来 ChatGPT 时刻。哪些行业会率先变化?可以分享你看到的突破,尤其让你激动人心的案例吗?

黄仁勋:有很多例子。我对 Sora 非常兴奋,去年在 wayve 上看到了同样的能力,这是关于文生视频的例子。

为了生成一个这样的视频,模型必须对物理规律有感知,比如把放在桌子上,而不是中间;走路的人是在地面上。不能违背物理规律。

另一个例子是我们用 Earth-2 来预测极端天气影响。这是一个关键的研究领域,因为极端天气事件会对当地社区造成毁灭性的影响。利用 Earth-2,可以在 3 公里尺度上预测极端天气事件的影响。这是对现有方法的重大改进,现有方法需要的超级计算机要大 2.5 万倍。

生成新药物和蛋白质是另一个非常令人印象深刻的潜在用例。这是通过像 Alphago 这样的强化学习循环来实现的,它允许在不消耗纯物质的情况下探索大分子空间,这有可能彻底改变药物发现。

这些是非常有影响力的东西,机器人技术也是如此。

在 3 月 18 日的 GTC 开场演讲中,老黄注视着最新的 Blackwell 架构产品|图片来源:极客公园

09.芯片出口管制如何影响英伟达

问:对芯片的出口管制,以及地缘政治,会对英伟达产生什么影响?

黄仁勋:有两件事我们必须马上去做。第一,了解所有政策,以确保其合规;第二,也要提高供应链韧性。

关于后者,我举个例子。当我们把 Blackwell 芯片配置成 DGX 处理器时,其中有 60 万个零件来自世界各地,很多来自中国。就像全球汽车供应链的复杂性一样,供应链的全球化很难被打破。

10.和台积电的关系

问:你能谈谈与台积电的关系吗?在过去的几年里,随着不断芯片封装的复杂性,台积电如何帮助英伟达实现目标的?

黄仁勋:与台积电的合作是我们最紧密的合作之一,因为我们要做的事情非常难,而他们能做得非常好。

我们从台积电得到了计算单元,CPU、GPU 裸芯片,良率很好。存储器是来自美光、海力士、三星,并且这些组装必须在台湾完成。所以,供应链并非易事,需要公司之间的协调。这些大公司与我们一起合作,也逐渐意识到,更加密切的合作是非常必要的。

我们从各家公司获取部件,然后组装,第三家公司测试,第四家公司组成系统,当然这个大系统最后是为了建成一个超级计算机,再进行测试。最终,我们建立了数据中心。想象下,所有的加工制造就是为了形成一个巨大的数据中心。整个供应链从上到下复杂度非常高,因为我们不仅仅是组装,除了芯片本身是个奇迹外,我们做成了巨大而庞杂的系统。

所以,当人们问我对 GPU 是什么感受时,可能一部分觉得它有点像 Soc(集成芯片)而已,而我看到的是架子、线缆、交换机等等。这才是我心中 GPU 和软件的模型。台积电真的很重要。

11.云业务的战略

问:英伟达正在向云业务转型,其他云厂商则在做自己的芯片。他们会影响你的定价策略吗?英伟达云业务的策略是什么?会向中国客户销售 DGX 云业务吗?

黄仁勋:英伟达与云服务提供商合作,将其硬件和软件放入他们的云中,这样做的目标是将客户带到他们的云中。

英伟达是一家计算平台公司,我们开发软件,我们有一批追随英伟达的开发者,因而,我们为使用英伟达 DGX 的云服务供应商(CSP)创造需求、带去客户。

12.「当代达芬奇」,还是「奥本海默」?

问:你曾说 AGI 将在 5 年内到来,这个时间预测有发生变化吗?AGI 的加速到来会让你感到害怕吗?有人说你是当代达芬奇(多才多艺、做出如此贡献),也有人说你是当代的奥本海默,你怎么看?

黄仁勋:奥本海默是造炸弹的,我们(英伟达)不干这个。

先具体定义 AGI,这样我们才能知道什么程度才算到达 AGI、什么时候到达。如果 AGI 意味着在大量的测试集上,数学测试、阅读测试、逻辑测试、医学考试、法律考试、GMAT、SAT 等等,软件程序可以做到比大多数人类都更好,甚至比所有人都好,那么计算机在 5 年内可以实现 AGI

本文来自微信公众号:极客公园 (ID:geekpark),作者:宛辰

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享