亚马逊与 AI 公司 Hugging Face 合作:定制芯片低成本运行 AI 模型
IT之家 5 月 23 日消息,亚马逊公司的云部门宣布,已与人工智能初创公司 Hugging Face 合作,将在亚马逊的定制计算芯片上更低成本地运行数千个 AI 模型。
估值 45 亿美元(IT之家备注:当前约 326.25 亿元人民币)的 Hugging Face 已成为 AI 研究人员和开发者分享聊天机器人或其他 AI 软件的中心,并得到了亚马逊、Alphabet 旗下的谷歌和英伟达等公司的支持,它是开发者获取和调整开源 AI 模型(如 Meta Platforms 的 Llama 3)的主要平台。
当开发人员调整了开源的 AI 模型后,他们通常希望使用该模型来驱动软件。亚马逊和 Hugging Face 周三宣布,他们已经合作在一个名为 Inferentia2 的定制亚马逊网络服务(AWS)芯片上实现这一目标。
“对我们来说,效率非常重要 —— 确保尽可能多的人能够运行模型,并且能够以最具成本效益的方式运行,”Hugging Face 的产品和增长负责人 Jeff Boudier 说。
AWS 希望吸引更多的 AI 开发者使用其云服务来交付 AI。虽然英伟达在训练模型的市场上占据主导地位,但 AWS 认为其芯片可以以较低成本运行那些经过训练的模型。
负责 AWS 人工智能产品的 Matt Wood 表示,你可能每个月训练这些模型一次,但可能每小时对它们进行成千上万次推理,这是 Inferentia2 真正闪光的地方。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。