AMD 以 MI300X AI 显卡挑战英伟达——能否赢得 AWS 成为其客户?
美国芯片制造商AMD近日公开了专为人工智能工作负载设计的新GPU详情。公司相信,MI300X将能在当前由竞争对手英伟达主导的人工智能芯片市场中占据一席之地。尽管公司并未公布首批将采用这款新芯片的知名客户,但据称亚马逊的云服务部门AWS正在考虑是否在其数据中心部署MI300X芯片。AMD已推出其MI300X AI GPU。(图片由AMD提供)这款新GPU在周二于AMD举办的“数据中心与人工智能技术”活动中发布,同时发布的一系列产品旨在帮助客户构建和运行AI模型。自ChatGPT发布以来,生成式AI服务的兴起推动了对AI芯片需求的激增,而英伟达在这一领域已占据领先地位。AMD公开了MI300X AI GPU的详细信息。MI300X计划在今年晚些时候上市,其配备192GB的HBM3内存。相比之下,英伟达最新推出的AI加速器H100则提供80GB内存,尽管该芯片支持两块H100的组合使用,从而实现188GB的总内存。AMD表示,芯片的内存容量意味着用户可以在单个GPU上运行完整的大型语言AI模型。例如,开源的400亿参数语言模型Falcon-40就需要90GB内存。尽管如此,Falcon-40相比拥有1750亿参数的GPT-4来说,规模仍相对较小。此外,AMD还向客户开放其Instinct平台,该平台将八块MI300X加速器整合到AI推理和训练的行业标准设计中。AMD相信,简化其GPU与现有数据中心架构的兼容性,将为英伟达提供更加灵活和经济的替代方案。尽管英伟达也出售独立芯片,但其更注重说服提供AI服务的云供应商加入其DGX Cloud平台。在该活动中,AMD还展示了其针对数据中心加速器的ROCm软件生态系统,并强调了与PyTorch基金会开源AI小组及AI工具开发商Hugging Face的合作。AMD首席执行官Lisa Su表示:“人工智能是塑造下一代计算的核心技术,也是AMD最大的战略增长机会。我们将专注于大规模部署AMD AI平台,尤其是今年晚些时候计划推出的Instinct MI300加速器,以及正在不断扩大的针对企业级AI软件的优化生态系统。”AMD能切分英伟达在AI领域的蛋糕吗?目前MI300X尚未进行全面的性能测试,因此其是否在性能上能与英伟达GPU相媲美仍有待观察。此外,该加速器在没有知名客户宣布采用的情况下发布,这可能是公司股价在消息公布后下跌的原因之一。不过,它已引起了AWS的兴趣,而AWS是公共云市场中最大的参与者。在AMD的活动中,该公司弹性计算部门主管Dave Brown表示,两家公司正在就此展开讨论。据Brown向路透社透露:“我们还在确定AWS与AMD之间具体如何实现合作,但我们的团队正在积极协作。在这方面,AMD在设计上为现有系统提供了适配性,我们从中获益良多。”查看所有新闻通讯报名订阅我们的新闻通讯获取数据、洞察和分析由Tech Monitor团队提供在此报名Brown还补充说,AWS不会采用英伟达的DGX Cloud,而是继续构建以H100为核心的自有系统。阅读更多:英特尔是否会成为Arm上市的基石投资者?首页图片由Tobias Arhelger / Shutterstock提供
查看全文
作者最近更新
评论0条评论