Arm CEO 示警:美国未来 20%-25% 的电量将被 AI 数据中心消耗

2024-04-10 16:30IT之家 - 沛霖(实习)
感谢IT之家网友 lemon_meta 的线索投递!

IT之家 4 月 10 日消息,当地时间周二,Arm 公司 CEO 雷内・哈斯(Rene Haas)发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括 OpenAI 的 ChatGPT 在内的 AI 模型需要大量电力,这可能导致到 2030 年,AI 数据中心将消耗美国 20% 至 25% 的电力需求,相比今天的 4% 大幅增加

他特别强调,类似 ChatGPT 这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。据IT之家此前报道,ChatGPT 每天需要处理超过 2 亿次请求,其电量消耗高达每天 50 万千瓦时。相比之下,美国普通家庭每天的平均用电量仅为 29 千瓦时,这意味着 ChatGPT 的日耗电量是普通家庭的 1.7 万倍以上

Arm 现在正着眼于降低人工智能技术的功耗,随着电力需求的惊人增长,哈斯强调了在没有更高效的能源解决方案的情况下推进 AI 研究的挑战。

国际能源机构(IEA)在《2024 电力》报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大语言模型所需的电力,远高于谷歌等传统搜索引擎。

荷兰中央银行数据科学家 Alex de Vries 在一份发表于可持续能源期刊《焦耳》上的论文中计算得出,如果谷歌将生成式人工智能技术应用于所有搜索,其每年将消耗约 290 亿千瓦时电量,这相当于肯尼亚、危地马拉和克罗地亚一年的总发电量

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享