【友财网讯】-微软(Microsoft)周三在西雅图举行的Ignite大会上发布了两款芯片。
第一个是其Maia 100人工智能芯片,可以与英伟达(Nvidia)备受追捧的人工智能图形处理单元(GPU)竞争。第二款是Cobalt 100 Arm芯片,针对一般计算任务,可能与英特尔(Intel)处理器竞争。
现金充裕的科技公司已经开始为客户提供更多的云基础设施选择,他们可以使用云基础设施来运行应用程序。阿里巴巴(Alibaba)、亚马逊(Amazon)和谷歌(Google)多年来一直在这么做。据估计,截至10月底,微软拥有约1440亿美元现金,在2022年占据了21.5%的云市场份额,仅次于亚马逊。
微软公司副总裁拉尼·博尔卡(Rani Borkar)在接受CNBC采访时表示,运行在Cobalt芯片上的虚拟机实例将于2024年通过微软的Azure云实现商业化。她没有提供释放Maia 100的时间表。
谷歌在2016年宣布了其用于人工智能的原始张量处理单元。2018年,亚马逊网络服务公司(Amazon Web Services)发布了基于Graviton arm的芯片和Interentia人工智能处理器,并于2020年宣布了用于训练模型的Trainium。
当GPU短缺时,云提供商的特殊AI芯片可能有助于满足需求。但与英伟达或AMD不同,微软及其云计算同行不打算让企业购买包含其芯片的服务器。
博尔卡解释说,该公司根据客户反馈制造了用于人工智能计算的芯片。
博尔卡说,微软正在测试Maia 100如何满足其必应(Bing)搜索引擎的人工智能聊天机器人(现在称为Copilot,而不是Bing Chat)、GitHub Copilot编码助手和GPT-3.5-Turbo的需求,后者是微软支持的OpenAI的一个大型语言模型。OpenAI已经为其语言模型提供了大量来自互联网的信息,它们可以生成电子邮件信息,总结文档,并通过几句人类指令回答问题。
GPT-3.5-Turbo模型适用于OpenAI的ChatGPT助手,该助手在去年推出后不久就流行起来。然后,公司迅速采取行动,在他们的软件中添加类似的聊天功能,增加了对GPU的需求。
今年9月,英伟达首席财务官科莱特·克雷斯(Colette Kress)在纽约举行的Evercore会议上表示:“我们一直在与所有不同的供应商进行全面合作,以帮助改善我们的供应状况,并支持许多客户和他们提出的需求。”
OpenAI之前在Azure中使用英伟达GPU训练模型。
除了设计Maia芯片外,微软还设计了名为Sidekicks的定制液冷硬件,可以安装在Maia服务器旁边的机架上。一位发言人说,该公司可以安装服务器机架和Sidekick机架,而无需进行改造。
使用GPU,充分利用有限的数据中心空间可能会带来挑战。服务器初创公司Oxide Computer的联合创始人兼首席执行官史蒂夫·塔克(Steve Tuck)表示,公司有时会把几台包含GPU的服务器像“孤儿”一样放在机架的底部,以防止过热,而不是从上到下塞满机架。塔克说,公司有时会增加冷却系统来降低温度。
如果以亚马逊的经验为鉴,微软对Cobalt处理器的采用速度可能会快于Maia人工智能芯片。微软正在Cobalt上测试Teams应用和Azure SQL数据库服务。微软表示,到目前为止,它们的性能比Azure现有的Arm芯片(由初创公司Ampere开发)高出40%。
在过去的一年半里,随着价格和利率的上升,许多公司都在寻找提高云计算支出效率的方法,对于AWS的客户来说,Gravon就是其中之一。AWS副总裁戴夫·布朗(Dave Brown)说,AWS排名前100位的客户现在都在使用Arm芯片,这种芯片的性价比可以提高40%。
不过,从GPU迁移到AWS Trainium AI芯片可能比从Intel Xeons迁移到Gravitons更复杂。每个人工智能模型都有自己的怪癖。布朗说,由于Arm在移动设备中的普及,许多人都在努力让各种工具在Arm上工作,而在人工智能的芯片上,情况就不太一样了。但他说,随着时间的推移,他预计企业会看到与GPU相比,Trainium的性价比也会有类似的提升。
她说:“我们已经与生态系统以及生态系统中的许多合作伙伴分享了这些规格,这将使我们所有的Azure客户受益。”
博尔卡说,她没有详细说明Maia与英伟达H100等替代产品的性能。周一,英伟达表示,其H200将于2024年第二季度开始发货。