微软发布自研 AI 芯片 Azure Maia 100 及 Cobalt 100,用于强化 Azure AI 和 Copilot 服务
IT之家 11 月 16 日消息,在今天于西雅图举行的 Ignite 开发者大会上,微软正式推出了两款自研 AI 芯片,用于强化 Azure AI 和 Microsoft Copilot 服务,分别为 Azure Maia 100 及 Azure Cobalt 100。
该系列芯片旨在加速 AI 计算任务,并为其每月 30 美元(IT之家备注:当前约 218 元人民币)的“Copilot”服务和企业软件用户提供算力基础,同时也为希望制作自定义 AI 服务的开发人员提供服务。
Azure Maia 100: 这是一款专为 Azure 云服务和 AI 工作负载设计的 ASIC 芯片,适用于 x86 主机。
该芯片将安装在定制的液冷机架中,同时最多可容纳 4 枚芯片。该芯片将支持标准 INT8 和 INT4 数据格式并利用嵌入式以太网接口。
这款芯片基于台积电 5nm 节点制造,可支持各种 AI 场景,包括自然语言处理、计算机视觉、推荐系统和生成型 AI。
它可以与 Azure 软件栈无缝集成,包括 Azure Machine Learning、Azure Cognitive Services 和 Azure Synapse Analytics 等,从而提供高性能、高效率和高灵活性。
Maia 芯片旨在运行大型语言模型,这是一种支持微软 Azure OpenAI 服务的 AI 软件,也是微软与 ChatGPT 开发者 OpenAI 合作的产品。
微软表示,他们不打算出售这些芯片,而是将它们用于为其自己的订阅软件产品赋能,并作为其 Azure 云计算服务的一部分。
微软和其他科技巨头如 Alphabet 正在努力应对提供 AI 服务的高成本,这可能比传统服务如搜索引擎的成本高出 10 倍。
微软高管表示,他们计划通过一套通用的基础 AI 模型来处理公司几乎所有的 AI 产品工作,以解决这些问题。据称,Maia 芯片正是为此优化的。
“我们认为这为我们提供了一种能力,可以为客户提供更快、更低成本和更高质量的解决方案,”微软云和 AI 集团执行副总裁 Scott Guthrie 说道。
微软还表示,明年它将为 Azure 客户提供在 Nvidia 和 AMD 的最新旗舰芯片上运行的云服务。微软表示,它正在 AMD 的芯片上测试 OpenAI 最先进的模型 GPT 4。
“这并不是取代 Nvidia 的东西,”分析师公司 Creative Strategies 的首席执行官 Ben Bajarin 说。
他表示,Maia 芯片将使微软能够在个人电脑和手机功能强大到足以处理它们之前,在云端销售 AI 服务。
“微软在这里有一个非常不同的核心技术机会,因为他们的服务每个用户都能赚很多钱,”Bajarin 说。
Azure Cobalt 100:这是一款 Arm 芯片,专门用于在微软 Cloud 上运行通用计算工作负载。这款芯片可以提供高密度、高可靠性和高安全性的计算服务,适用于 Web 应用、数据库、容器和微服务等。
它还可以与 Azure 的生态系统兼容,包括 Azure Kubernetes Service、Azure Functions 和 Azure App Service 等。这款芯片的优点在于可以提供低成本、低功耗和低碳排放的计算平台,支持可持续发展的目标。
微软表示,它总共拥有 128 个 Neoverse N2 内核,支持 12 通道 DDR5 内存,与即将推出的 ARM 服务器芯片相比,每个内核的性能提高了 40%。
微软还透露,他们已经在尝试用 Cobalt 为 Teams 赋能。
微软 Guthrie 表示,公司还希望直接向客户出售 Cobalt 的使用权,以与亚马逊网络服务(AWS)提供的“Graviton”系列芯片竞争。
“我们正在设计我们的 Cobalt 解决方案,以确保我们在性能以及价格-性能方面都具有竞争力(与亚马逊的芯片相比),”Guthrie 说。
AWS 将在本月晚些时候举行自己的开发者大会,一位发言人表示,其 Graviton 芯片目前已有 5 万名客户。
“AWS 将继续创新,为任何需要的客户工作负载提供下一代 AWS 设计的芯片,以提供更好的性价比,”微软宣布其芯片后,该发言人表示。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。