7月4日消息,据韩国媒体BusinessKorea报道,包括英伟达、AMD、微软、亚马逊在内的全球科技巨头,已相继向SK海力士申请了HBM3E样片。申请样本是下单前的必要程序,目的是测试该HBM3E存储芯片与客户的CPU、GPU或云端系统是否兼容。这也意味着,SK海力士的HBM3E良率已经很稳定、能够大量生产,进入到了交货前的最后阶段。
随着以ChatGPT为代表的生成式AI的持续火爆,带动了高性能AI芯片(包括CPU、GPU)出货量的持续增长,这也使得配套的HBM(高带宽内存)的需求大涨。因为AI运算对数据吞度量有很高的需求,只有HBM内存才可以满足,通常HBM会和GPU、CPU封装在一起。不过,HBM的价格比较昂贵,是传统DRAM的2~3倍。
根据多家销售渠道网站显示,英伟达的高端AI片仍旧处于缺货状态。根据信息技术产品和服务供应商网站CDW的数据显示,英伟达目前的H100报价高达30,602.99美元,需等待长达4~6周才能到货。
根据研究机构集邦咨询的数据,2022年HBM产品市场中,SK海力士占据50%的市场份额,三星占比40%,美光占比10%。不过在整个DRAM市场中,HBM的份额仅为1%。该机构预计,从今年起至2025年,HBM将保持每年45%的高速增长。
今年4月,SK海力士宣布推出了HBM3内存的增强版——HBM3E,主要面向人工智能(AI)和高性能计算(HPC)类应用,基于1b纳米制造技术(该公司第五代10纳米级的DRAM节点),数据传输率提高了25%,即从上一代的6.40 GT/s提高到了8.0 GT/s,容量也达到了24GB。SK Hynix计划在2023年下半年开始对其HBM3E存储器进行采样,并在2024年开始大规模生产。
报道称,英伟达是第一家向SK海力士申请HBM3E送样的客户。申请的客户或许今年底前即可收到样本。由于HBM3E需求暴增,SK海力士已决定明年大扩产,多数新增产能将用来生产HBM3E。
AMD最近发布的MI300XGPU,所搭配的HBM3容量是英伟达旗舰GPU H100的2.4倍,预计将由SK海力士及三星电子共同供应。AMD这次向SK海力士申请HBM3E送样,似乎是要决定第5代HBM的供应商人选。
值得注意的是,三星目前也在积极的开发大容量的HBM3内存。据韩国媒体报道,三星将大规模生产16GB、24GB容量的HBM3内存芯片,这类产品的速率可达6.4Gbps,有助于提高机器学习的运算速度。
今年4月,三星表示,将在下半年推出HBM3P产品,具有更高的性能和更大容量。除此之外,三星还将推出HBM-PIM芯片、CXL DRAM芯片等。
来自韩国的分析师表示,三星预计从第四季度起开始向北美GPU制造商(可能是英伟达)供应HBM3芯片,因此未来这类芯片占三星DRAM总销售额的比重将从6%扩大至2024年的18%。