(电子发烧友网报道 文/黄晶晶)作为开年的消费电子产品风向标,2024年CES展如期而至。在此次展会上,不少存储厂商带来了新产品,电子发烧友网整理部分厂商的展示讯息,可以看到这些厂商已积极布局在AI、存储主控芯片和嵌入式存储、SSD等方面,在一定程度上预示着存储行业接下来的动向。
支撑AI的存储
此次展会上,SK海力士展示未来AI基础设施中最为关键的超高性能存储器技术实力。
我们知道SK海力士在行业里面率先发力HBM产品,并收获颇丰。为了巩固自身在这一领域的市场地位,最近SK海力士制定了新的发展战略,计划到2030年将HBM出货量提升至每年1亿颗。为此,SK海力士计划在未来几年内加大对HBM生产线建设的投入,扩大产能,以满足市场需求。
同时,SK海力士不断研发新技术,提升HBM产品的性能和品质。加强与全球知名厂商的合作,加大在全球市场的拓展力度,特别是在中国、北美和欧洲等高性能计算需求较大的地区。
SK海力士展示的HBM3E,该产品是现有最高性能的存储器。HBM3E达到了业界最高1.18TB/秒的数据处理速度,满足了人工智能市场快速处理海量数据的需求。相较于上一代HBM3产品,HBM3E的速度提升了1.3倍,数据容量扩大了1.4倍,该产品还采用了Advanced MR-MUF2最新技术,散热性能提升了10%。对于运行人工智能解决方案的用户而言,HBM3E将有助于充分发挥其系统的全部潜能。
公司计划从今年上半年开始量产HBM3E产品并提供给AI领域的大型科技公司。
SK海力士还展示“新一代接口的CXL2内存”、“基于CXL运算功能整合而成的存储器解决方案CMS(Computational Memory Solution)试制品”、“基于PIM(Processing-In-Memory)半导体的低成本、高效率生成型AI加速器卡AiMX3”等。
其中,AiMX(Accelerator-in-Memory based Accelerator)采用SK海力士的首款PIM产品GDDR6-AiM芯片,专用于大规模语言模型(Large Language Model)的加速器卡试制品。
SK海力士计划在今年下半年将基于DDR5的96GB和128GB CXL 2.0内存解决方案产品商用化并提供给AI领域的客户。此外,消息称SK海力士已确认2024年将启动下一代HBM4的开发工作。
谈到AI,不仅是GPU搭配HBM进行AI训练,AI服务器也需要系统的存储能力得到提升。在此次CES展上,作为国内少数可同时研发并量产企业级RDIMM和SSD的厂商之一,江波龙旗下行业类存储品牌FORESEE推出了DDR5 RDIMM与PCIe SSD的产品组合方案,以匹配AI服务器领域大带宽、低延迟的主要需求,该方案也可作为HBM需求的有益补充,目前已成功量产。