AI应用炒热市场对新一代HBM需求
来源:爱集微 发布时间:2018-01-18 分享至微信
HBM迄今仍属于利基型技术,是否能因为AI等新应用进一步扩大市场版图,分析师认为目前仍很难说…

高频宽存储器(high bandwidth memory,HBM)因为上周三星电子(Samsung Electronics)宣布开始量产第二代HBM技术Aquabolt,在市场上再次获得瞩目。

三星高频宽存储器市场行销经理Tien Shiah表示,其8GB容量的High Bandwidth Memory-2 (HBM2)是专为下一代超级电脑、人工智能(AI)与绘图系统所设计,号称能提供最高等级的DRAM性能水准,以及目前市场上最快的资料传输速率──在1.2V下每接脚2.4Gbps;与该公司上一代HBM2产品Flarebolt相较(每接脚速度在1.2V下为1.6Gbps、在1.35V下为2.0Gbps),性能提升了近50%。

Shiah在国际消费性电子展(CES 2018)接受EE Times电话采访时表示,单个Aquabolt封装能提供307GBps的资料频宽,资料传输速率是资料频宽为32GBps的8GB GDDR5晶片之9.6倍;这意味着在系统中采用4个HBM2封装就能达到1.2TBps的频宽,将整体系统性能提升50%。他指出,对更高资料存取速度的需求推动了市场采用HBM,特别是AI与机器学习演算法;而HBM为市场上最高速的DRAM解决方案,还能节省占板面积与功耗。

不过Shiah也指出,因为HBM需要整合到具备硅中介层(silicon interposers)的ASIC中,这种设计需要具备专长技术;三星还利用了与散热控制相关的硅穿孔(TSV)技术长才,单一个Aquabolt封装内含8颗8Gb容量的HBM2裸晶,利用超过5,000个TSV垂直互连;此外三星还增加了HBM2裸晶之间的散热凸块(thermal bumps),能实现对每个封装更强力的散热控制。最后还在封装底部添加了保护层,提高其整体物理强度。


三星的第二代High Bandwidth Memory-2 (HBM2)是专为下一代超级电脑、人工智能(AI)与绘图系统所设计
(来源:Samsung Electronics)

HBM常常会被跟混合存储器立方体(Hybrid Memory Cube,HMC;编按:由Micron主导开发)一起讨论,两者同样是为了发挥DRAM最高速度性能的解决方案;这两种方案的差异性其实不大,但因为HBM在市场上的接受度较高,有可能会胜过HMC,就像是很久以前录影带规格VHS侵蚀Beta版图那般。

不过市场研究机构Objective Analysis首席分析师Jim Handy表示,就算HBM会成为赢家,它仍是一种利基型技术,“我不认为它最终会跃居主流;目前它实在是很昂贵的技术,因为要在硅芯片上使用TSV的代价高昂;”他指出,HBM到目前为止感觉有点“神秘”,通常是使用在Nvidia与AMD的绘图卡,需要大频宽来连结GPU的应用。

Handy表示,TSV确实能提供比打线封装(wire bonding)更高的优势,特别是当你可以在单芯片上采用5,000个TSV;然而该技术仍相对较昂贵:“这种技术需要克服的挑战在于,当生产量增加、价格就会降低,但因为一开始的高价格很难让生产量变大,”这也是为什么HBM仍主要只出现在高阶绘图卡上。

现在也可以看到HBM被应用在某些超级电脑,未来在某个时间点也有机会进驻标准服务器,但Handy补充指出:“现在很难说什么应用能让HBM达到足以让成本下降的高需求量,大家都在争论AI将在其中扮演何等角色;”厂商大力推广锁定AI应用的FPGA解决方案,为GPU方案带来竞争压力,智能手机也可能会是HBM的长期性目标市场,因为GDDR5也准备进军这类装置。

至于HBM与HMC之间的主要差异,Handy表示是在底部的逻辑晶片;而虽然英特尔(Intel) 采用了美光(Micron)的HMC技术,但自行开发了逻辑标准。另一家DRAM制造商海力士(SK Hynix)也是走HBM路线,他认为英特尔将会从自家衍生的HMC方案转向采用HBM,最后美光也会跟进:“HBM与HMC差异并不大,所以美光如果必须改变方向也不会有太多损失。”

编译:Judith Cheng

(参考原文:AI Fuels Next-Gen HBM Demand,by Gary Hilson)
[ 新闻来源:爱集微,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!