微软、谷歌、Meta 等大型科技公司为抢占市场先机你追我赶。这场 AI 竞赛却让英伟达市值飙升,市值约为 5 个英特尔。
ChatGPT 在手,有问必答。
你可知,与它每次对话的计算成本简直让人泪目。
此前,分析师称 ChatGPT 回复一次,需要 2 美分。
要知道,人工智能聊天机器人所需的算力背后烧的可是 GPU。
这恰恰让像英伟达这样的芯片公司豪赚了一把。
2 月 23 日,英伟达股价飙升,使其市值增加了 700 多亿美元,总市值超 5800 亿美元,大约是英特尔的 5 倍。
在英伟达之外,AMD 可以称得上是图形处理器行业的第二大厂商,市场份额约为 20%。
而英特尔持有不到 1% 的市场份额。
随着 ChatGPT 解锁潜在的应用案例,这可能迎来人工智能应用的另一个拐点。
为什么这么说?
谷歌母公司 Alphabet 董事长 John Hennessy 在接受路透的采访时表示,大型语言模型等人工智能的对话成本可能是传统搜索引擎的 10 倍以上。
Morgan Stanley 分析表示,谷歌去年共计 3.3 万亿次搜索,每次搜索的成本仅为 0.2 美分。
据估计,若将谷歌旗下聊天机器人 Bard 引入搜索引擎,并用其处理谷歌一半的搜索和提问,按照每次答案 50 词计算,公司在 2024 年的成本可能会增加 60 亿美元。
同样,专注于芯片技术的咨询公司 SemiAnalysis 称,受到谷歌内部芯片 Tensor Processing Units 等的影响,将聊天机器人添加至搜索引擎中,可能会让谷歌额外花费 30 亿美元。
他认为谷歌必须降低此类人工智能的运营成本,但这一过程并不容易,最坏的情况也得需要几年时间。
正是如此,通过 AI 语言模型进行搜索比传统搜索需要消耗更多的算力。
分析师表示,未来几年的额外成本可能高达数十亿美元。
Gartner 预计,到 2026 年,用于数据中心的 GPU 等专业芯片的份额预计将从 2020 年的不到 3% 上升 15% 以上。
虽然很难确切地指出如今人工智能在英伟达收入中所占的比例有多大,但随着大型科技公司竞相开发类似的 AI 应用程序,人工智能有成倍增长的潜力。
周三,英伟达还宣布了人工智能云服务,并致力于甲骨文、微软和谷歌合作,为其提供使用 Nvidia GTX,通过简单的浏览器访问进行人工智能处理的能力。
这个新平台将由其他云服务商提供,将帮助那些不具备构建自己的基础设施的技术公司。
黄仁勋称,「人们对 ChatGPT 的热情让商界领袖们看到了人工智能的力量。但是现在,它主要是一个通用软件。其真正价值的实现,还需要根据公司自身的需求量身定做,这样就可以改进自家的服务和产品。」
New Street Research 称,英伟达占据了 95% 图形处理器的市场份额。
在费城证券交易所半导体指数中,英伟达股票今年已经上涨 42%,表现最好。
投资者纷纷投向英伟达,押注在对 ChatGPT 等人工智能系统的需求将推高该公司产品的订单,使其再次成为全球市值最高的芯片制造商。
一直以来,不管是成为顶流的 ChatGPT,还是 Bard、Stable Diffusion 等模型,背后都是由一个大约价值 1 万美元的芯片 Nvidia A100 提供算力。
英伟达 A100 能够同时进行许多简单的计算,对训练和使用神经网络模型非常重要。
A100 背后的技术最初用在游戏中渲染复杂的 3D 图形。而现在,其目标是处理机器学习任务和在数据中心运行。
投资者 Nathan Benaich 表示,A100 目前已成为人工智能专业人士的「主力」。他的报告还列出了使用 A100 超级计算机部分公司的名单。
机器学习任务可能会占用整台计算机的处理能力,有时会持续数小时或数天。
这意味着,那些拥有一款畅销 AI 产品的公司往往需要购买更多的 GPU 来应对访问高峰期,或改进其模型。
除了卡上可以插入现有服务器的单个 A100 之外,许多数据中心还使用一个包含 8 个 A100 图形处理器的系统。
这个系统,便是 Nvidia DGX A100,单套系统售价高达 20 万美元。
英伟达周三表示,将直接出售 DGX 系统的云访问权限,这可能会降低研究人员的入门成本。
那么运行新版必应需要付出怎样的成本?
New Street Research 的一项评估发现,必应搜索中基于 OpenAI 的 ChatGPT 模型可能需要 8 个 GPU 才能在不到一秒钟的时间内给出一个问题的答案。
按照这个速度,微软需要超过 2 万台 8 个 GPU 服务器才能将这个模型部署到每个人手中。
那么微软可能会花费 40 亿美元的基础设施开支。
这仅是微软,如果想要达到谷歌每日查询规模,即每天提供 80 亿-90 亿个查询,就需要花费 800 亿美元。
再比如,最新版本的 Stable Diffusion,在 256 个 A100 图形处理器,或 32 台 DGX A100 进行计算 200,000 小时。
Stability AI 的首席执行官 Mostaque 表示,按照市场价格计算,仅训练该模型就需要花费 60 万美元。与竞争对手相比,这个价格非常便宜。这还不包括推断或部署模型的成本。
黄仁勋在接受采访时表示,
就这类模型所需的计算量而言,Stability AI 的产品实际上并不昂贵。
我们采用了原本需要 10 亿美元才能运行 CPU 的数据中心,然后将其缩小为 1 亿美元的数据中心。现在,这 1 亿美元数据中心放在云端由 100 家公司共同分担,都不算什么。
英伟达 GPU 可以让初创企业以较成本训练模型。现在你可以构建一个大型语言模型,比如 GPT,大概需要 1000 万到 2000 万美元。这真的,真的很实惠。
2022 人工智能现状报告称,截至 2022 年 12 月,超过 2.1 万份开源 AI 论文使用了英伟达芯片。
国家人工智能计算指数 (State of AI Compute Index) 中的大多数研究人员使用的是 2017 年推出的英伟达芯片 V100,但 A100 在 2022 年快速增长,成为使用频率排在第三的芯片。
A100 最激烈的竞争可能是它的继任者 H100,2022 年推出并已开始量产。事实上,英伟达周三表示,在截至 1 月份的季度,H100 的收入超过了 A100。
目前来看,英伟达正在乘坐着 AI 的快车向「钱」冲刺了。
参考资料:
https://www.reuters.com/technology/tech-giants-ai-like-bing-bard-poses-billion-dollar-search-problem-2023-02-22/
https://www.businessinsider.com/ai-expensive-google-chatbot-bard-may-cost-company-billions-dollars-2023-2
https://www.bloomberg.com/news/articles/2023-02-22/nvidia-gives-strong-forecast-as-ai-helps-fuel-computing-demand?srnd=technology-vp
https://www.reuters.com/technology/nvidia-results-show-its-growing-lead-ai-chip-race-2023-02-23/
https://www.cnbc.com/2023/02/23/nvidias-a100-is-the-10000-chip-powering-the-race-for-ai-.html
本文来自微信公众号:新智元 (ID:AI_era)
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。