超微MI300X迎战NVIDIA 台积电通吃大单
来源:DIGITIMES 发布时间:2023-06-15 分享至微信

迎战英特尔(Intel)、NVIDIA,超微(AMD)于美西时间13日举行「数据中心与人工智能(AI)技术发表会」,CEO苏姿丰(Lisa Su)亲自上阵揭示新一代数据中心平台蓝图,包括最受关注,力抗NVIDIA AI GPU强袭的Instinct MI300X加速器,2023年第3季开始向各大客户送样。

超微CEO苏姿丰说明MI300加速器等数据中心与AI技术蓝图。陈玉娟摄

超微CEO苏姿丰说明MI300加速器等数据中心与AI技术蓝图。陈玉娟摄

据了解,MI300X采用3D小芯片设计(Chiplet),结合采用台积电5纳米制程、AMD CDNA 3架构GPU、6纳米IO芯片和HBM小芯片,整体性价比优异,已获得多家大厂支持,势将对甫登场的NVIDIA GH200超级芯片带来不小压力。

另一方面,随着双雄交火带动AI服务器需求大增,相关供应链也受惠迎来新一波成长动能,除了台积电通吃大单外,上下游供应链也雨露均沾。

包括AWS、Citadel、Hugging Face、Meta、微软(Microsoft)Azure和PyTorch等高层也站台力挺超微,说明双方技术合作细节,为市场带来新一代高效能CPU与AI加速器解决方案。

苏姿丰表示,超微在实现数据中心策略上再度向前迈出重要一步,扩大的第四代EPYC处理器产品阵容为云端和技术运算工作负载,提供全新领先业界的解决方案,也与最大的云端供应商发表全新公有实例和内部部署。

AI是塑造新一代运算的决定性技术,也是超微最大的策略性成长机会,超微将专注于加速AI平台在数据中心的大规模部署,计划于2023年稍后推出Instinct MI300加速器,而为硬件作出最佳化的企业级AI软件产业体系将持续壮大。

5纳米MI300X第3季送样 ROCm生态系加速扩张

ChatGPT全球爆红,带动生成式AI应用热潮,所需庞大算力也推升高端AI GPU需求飙升,AI服务器平台大战全面开打。

在超微数据中心与AI大会上,最受关注的就是AI平台战略,也就是Instinct MI300系列加速器产品线的最新细节。

苏姿丰表示,MI300X加速器为全球最先进的生成式AI(Generative AI)加速器,采用新一代CDNA 3加速器架构,支持高达192GB的HBM3存储器,提供大型语言模型推导与生成式AI工作负载所需的运算力与存储器效率。

藉由MI300X的大容量存储器,客户可处理Falcon-40B等大型语言模型—仅需使用1个MI300X GPU加速器即可处理Falcon-40B上400亿个参数的模型。

藉由MI300X的大容量存储器,客户可处理Falcon-40B这类大型语言模型。陈玉娟摄

藉由MI300X的大容量存储器,客户可处理Falcon-40B这类大型语言模型。陈玉娟摄

另外,新推出AMD Infinity架构平台,将8个MI300X加速器整合至业界标准设计,打造生成式AI推论与训练环境。MI300X于第3季开始向各大客户送样。

超微同时发表MI300A,为针对HPC与AI工作负载所开发的全球首款APU加速器,现已开始向客户送样。

值得注意的是,MI300系列采用台积电5/6纳米制程、3D小芯片设计,而NVIDIA H100 GPU,亦采用台积电4纳米与CoWos先进封装技术,双雄交火,台积电成为最大受惠者,助力下半年5/7纳米家族制程产能利用率回升。

此外,CoWoS产能不足,双雄急追单,台积电也加速扩产。

急追NVIDIA CUDA  超微ROCm加快部署

相较NVIDIA部署整合多年CUDA生态圈,超微也急起直追,展示为数据中心加速器所打造的ROCm软件产业体系。

PyTorch分享超微与PyTorch基金会之间的合作,从上游全面提供ROCm软件堆叠,在所有AMD Instinct加速器上透过ROCm 5.4.2版本为PyTorch 2.0提供实时的Day-0支持。这样的整合为开发人员提供广泛的PyTorch AI模型,可在超微加速器上「开箱即用」。

面向AI开发者的开放平台Hugging Face也宣布将在AMD Instinct加速器、Ryzen和EPYC处理器、Radeon GPU以及Versal及Alveo自行调适处理器等超超微平台上最佳化数千个Hugging Face模型。

EPYC阵容新增成员 「Bergamo」锁定云瑞原生应用需求

在服务器处理器方面,苏姿丰也揭示第四代EPYC产品线的一系列更新信息。

现有的第四代EPYC处理器为「Genoa」,采用台积电5纳米制程,支持PCIe 5.0及CXL存储器扩充技术,可支持12个通道的DDR5,超微再扩大第四代EPYC处理器产品线,先前代号为「Bergamo」的97X4处理器,凭藉每插槽128个「Zen 4c」核心,锁定更高密度的云瑞原生应用需求。

超微大客户Meta也分享超微处理器如何力助Instagram、WhatsApp等供卓越效能。与第四代EPYC处理器相比,第四代EPYC 97x4处理器为Meta各种工作负载带来显着的效能提升,同时大幅度减少整体拥有成本(TCO)。

瞄准云端与企业 扩大网络平台阵容

超微也展示全新网络产品线,成员包括Pensando DPU、超低延迟NIC与自行调适NIC,Pensando DPU结合软件堆叠与「零信任安全性」以及可程序化封包处理器,打造全球最高智能度与效能的DPU。

代号为「Giglio」的新一代DPU,目标为客户更强效能与能源效率,预计2023年底上市。

Pensando Software-in-Silicon开发套件(SSDK),可让客户能快速开发或迁移各项服务,在Pensando P4可程序化DPU上进行部署,并与建置在Pensando平台上的现有功能并存运行。

超微CEO苏姿丰与AWS EC2副总裁Dave Brown宣布新一代Amazon Elastic Compute Cloud (Amazon EC2) M7a实例提供预览,采用第四代EPYC处理器「Genoa」,M7a较M6a实例带来高达50%的效能提升,将于第3季推出。陈玉娟摄

超微CEO苏姿丰与AWS EC2副总裁Dave Brown宣布新一代Amazon Elastic Compute Cloud (Amazon EC2) M7a实例提供预览,采用第四代EPYC处理器「Genoa」,M7a较M6a实例带来高达50%的效能提升,将于第3季推出。陈玉娟摄

[ 新闻来源:DIGITIMES,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!