【友财网讯】-AMD周二表示,其最先进的人工智能GPU MI300X将于今年晚些时候开始向部分客户发货。
据分析师称,AMD的声明是对英伟达(Nvidia)的最大挑战,英伟达目前以超过80%的市场份额主导着人工智能芯片市场。
GPU是OpenAI等公司用来构建ChatGPT等尖端人工智能程序的芯片。
如果AMD称之为“加速器”的人工智能芯片被开发人员和服务器制造商接受,作为英伟达产品的替代品,这可能代表着这家芯片制造商的一个巨大的未开发市场,该公司以其传统的计算机处理器而闻名。
AMD首席执行官苏姿丰(Lisa Su)周二在旧金山对投资者和分析师表示,人工智能是该公司“最大、最具战略意义的长期增长机会”。
“我们认为,数据中心人工智能加速器(市场)将以超过50%的复合年增长率,从今年的300亿美元增长到2027年的1500亿美元。”苏姿丰说。
虽然AMD没有透露价格,但此举可能会给英伟达的GPU带来价格压力,如H100,它的价格可能在3万美元以上。较低的GPU价格可能有助于降低为生成式人工智能应用服务的高成本。
AI芯片是半导体行业的亮点之一,而作为半导体处理器销售传统驱动力的个人电脑PC销售却不景气。
上个月,AMD首席执行官苏姿丰在财报电话会议上表示,虽然MI300X将于今年秋天提供样片,但明年将开始大量出货。苏姿丰在周二的演讲中分享了芯片的更多细节。
“我喜欢这个芯片。”苏姿丰说。
AMD表示,其新的MI300X芯片及其CDNA架构是为大型语言模型和其他尖端人工智能模型设计的。
“它的核心是GPU。GPU正在实现生成式人工智能。”苏姿丰说。
MI300X可以使用高达192GB的内存,这意味着它可以适应比其他芯片更大的人工智能模型。例如,竞争对手英伟达的H100只支持120GB的内存。
用于生成式人工智能应用的大型语言模型使用大量内存,因为它们运行越来越多的计算。AMD演示了运行名为Falcon的400亿参数模型的MI300X。OpenAI的GPT-3模型有1750亿个参数。
“模型尺寸变得越来越大,实际上你需要多个GPU来运行最新的大型语言模型。”苏姿丰说,并指出随着AMD芯片上内存的增加,开发人员将不再需要那么多的GPU。
AMD还表示,它将提供一种Infinity架构,在一个系统中集成八个M1300X加速器。英伟达和谷歌(Google)已经开发了类似的系统,将八个或更多的GPU结合在一个盒子中,用于人工智能应用。
人工智能开发人员历来偏爱英伟达芯片的一个原因是,它有一个开发良好的软件包,名为CUDA,使他们能够访问芯片的核心硬件功能。
AMD周二表示,它有自己的人工智能芯片软件,称之为ROCm。
AMD总裁维克托·彭(Victor Peng)表示:“虽然这是一个旅程,但我们已经在构建强大的软件堆栈方面取得了巨大进展,该堆栈可以与模型、库、框架和工具的开放生态系统一起工作。