欢迎访问江南电竞入口安卓版
巨头领跑,HBM3时代来临
2023-01-12 来源:Ai芯天下
994

关键词:半导体芯片人工智能


HBM契合半导体发展趋势

作为存储器市场的重要组成部分,DRAM技术不断地升级衍生。

DRAM从2D向3D技术发展,其中HBM是主要代表产品。

HBM(High Bandwidth Memory,高带宽内存)是一款新型的CPUGPU内存芯片

其实就是将很多个DDR芯片堆叠在一起后和GPU封装在一起,实现大容量,高位宽的DDR组合阵列。

通过增加带宽,扩展内存容量,让更大的模型,更多的参数留在离核心计算更近的地方,从而减少内存和存储解决方案带来的延迟。

从技术角度看,HBM使DRAM从传统2D转变为立体3D,充分利用空间、缩小面积,契合半导体行业小型化、集成化的发展趋势。


JEDEC发布HBM3标准,带宽翻倍覆盖更多领域

在堆叠层数方面,新标准不仅支持4-Hi、8-Hi、12-Hi的硅通孔(TSV)堆栈,同时还为16-Hi方案实现做好准备。

每层8—32Gb的容量密度,可轻松支持4GB(8Gb?4-Hi)到64GB(32Gb?16-Hi)容量密度,预计初代产品将基于16Gb存储层。

为满足对高平台层级的可靠性、可用性与可维护性(简称RAS)需求,HBM3还支持基于符号的片上ECC、以及实时错误报告和透明度。

通过在主机接口端使用低摆幅(0.4V)信号和较低的工作电压(1.1V),进一步提升能效表现。

人工智能/机器学习、高性能计算、数据中心等应用市场兴起,催生高带宽内存HBM并推动着其向前走更新迭代。

市场调研机构Omdia预测,2025年HBM市场的总收入将达到25亿美元。

巨头率先抵达HBM3“战场”

去年10月,SK海力士宣布业界首次成功开发现有最佳规格的HBM3 DRAM。

这是SK海力士去年7月开始批量生产HBM2E DRAM后,时隔仅1年零3个月开发了HBM3。

SK海力士研发的HBM3可每秒处理819GB的数据,相当于可在一秒内传输163部全高清电影,与上一代HBM2E相比,速度提高了约78%;

内置ECC校检,可自身修复DRAM单元的数据的错误,产品可靠性大幅提高。

随着SK海力士成功开发HBM3,HBM开始挺进3.0时代,IP厂商亦已先行布局HBM3。

去年2月,三星电子发布其集成AI处理器新一代芯片HBM-PIM(processing-in-memory)。

可提供最高达1.2TFLOPS的嵌入式计算能力,从而使内存芯片本身能够执行通常由CPU、GPU、ASIC或FPGA处理的工作。

HBM-PIM芯片将AI引擎引入每个存储库,从而将处理操作转移到HBM本身。

去年7月,AMD正在研发代号为Genoa的下一代EPYC霄龙服务器处理器,采用Zen4架构。

这一处理器将首次配备HBM内存,目的是与英特尔下一代服务器CPU Sapphire Rapids竞争。

英特尔和AMD均将在CPU上采用HBM,这也意味着HBM的应用不再局限于显卡,其在服务器领域的应用将有望更加广泛。

去年10月,Synopsys宣布推出业界首个完整的HBM3IP解决方案,包括用于2.5D多芯片封装系统的控制器、PHY和验证IP。

Design Ware HBM3控制器与PHYIP基于经芯片验证过的HBM2EIP打造,而HBM3 PHYIP基于5nm制程打造,每个引脚的速率可达7200Mbps,内存带宽最高可提升至921GB/s。

去年8月,美国内存IP核供应商Rambus宣布推出其支持HBM3的内存接口子系统,内含完全集成的PHY和数字控制器。

数据传输速率达8.4Gbps,可提供超过1TB/s的带宽,是HBM2E内存子系统的两倍以上。

去年8月,英特尔在其架构日上介绍基于XeHPC微架构的全新数据中心GPU架构Ponte Vecchio。

Ponte Vecchio芯片由几个以单元显示的复杂设计构成,包括计算单元、Rambo单元、Xe链路单元以及包含高速HBM内存的基础单元。

英特尔也将HBM用在其下一代服务器CPU Sapphire Rapids上。

在内存方面,除了支持DDR5和英特尔@傲腾内存技术,还提供了一个产品版本,该版本在封装中集成了HBM技术。

可在HPC、AI、机器学习和内存数据分析工作负载中普遍存在的密集并行计算中实现高性能。

在 CES 2023 展会上,AMD披露了面向下一代数据中心的 APU 加速卡产品 Instinct MI300,是AMD投产的最大芯片。

这 9 颗小芯片采用有源设计,不仅可以在I/O瓦片之间实现通信,还可以实现与HBM3堆栈接口的内存控制器之间的通信,从而带来令人难以置信的数据吞吐量。


结尾:

随着技术标准化发展,该技术应用将会进一步扩大,扩展至用于下一代超级计算机和AI应用的HBM3,甚至用于设备上AI的移动存储器,以及用于数据中心的存储器模块。

HBM 存储器对于面向企业市场和最终消费者的产品来说是一个非常昂贵的选择。

随着人工智能和深度学习的不断发展,系统已经变得对带宽需求很大。

HBM处于系统和内存性能层级的顶端,是包括超级计算机、高性能计算、自动驾驶和机器学习等下一代应用无可争议的技术推动因素。



Baidu
map