Blackwell出货在即,2024年AI服务器需求大幅增长
来源:ictimes 发布时间:2024-05-31 分享至微信

根据市场研究公司TrendForce集邦咨询的最新数据显示,NVIDIA的Hopper平台H100在今年第一季度的供应紧张情况逐渐得到缓解,随后的新品H200在第二季度后开始逐步放量,而全新的Blackwell平台预计将在第三季度进入市场,第四季度扩展至数据中心客户。


尽管如此,整个2024年依然以Hopper平台,包括H100和H200等产品线为主。根据供应链情况,预计Blackwell平台将在第四季度开始大规模供货,尽管占据高阶GPU的比例预计将低于整体的10%。


TrendForce集邦咨询还指出,Blackwell平台的B100等新产品,其裸晶尺寸(die size)预计将达到现有H100的两倍。台积电(TSMC)预计2024年的CoWos总产能将年增长达到150%,并随着2025年这一技术的普及,预计年增长率将达到70%,其中NVIDIA的需求将占据近一半份额。


在HBM方面,随着NVIDIA GPU平台的推进,H100目前搭载了80GB的HBM3,而到2025年,B200将升级至搭载288GB的HBM3e,单颗搭载容量将近3至4倍的增长。据三大原厂扩展计划显示,2025年的HBM生产量预计也将翻倍增长。


NVIDIA的新一代GPU平台和Blackwell平台的推出,标志着其在高性能计算市场上的深入布局。随着人工智能技术的发展,对高性能计算能力的需求将不断增长,这将为NVIDIA在数据中心领域带来更多商业机会和市场份额。预计未来几年,NVIDIA将在AI服务器市场上保持领先地位,特别是在大型云端服务商和企业级数据中心的市场拓展方面,具有显著的竞争优势。


[ 新闻来源:ictimes,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!