SOCAMM2,引爆内存圈
过去三年,HBM始终占据半导体行业的核心赛道热度榜首;迈入2026年,SOCAMM2的产业化进程与市场热度同步飙升,增速大幅超出行业预期,即便处于产能爬坡关键期的HBM4,也难掩其锋芒。
那么,何为SOCAMM2?它在存储芯片领域具体承担哪些角色?
01 SOCAMM,为何被重视?
SOCAMM,全称Small Outline Compression Attached Memory Module,是一种由英伟达主导,与三星、SK海力士、美光等公司合作开发的面向AI服务器与PC的模块化内存标准。它基于LPDDR5X DRAM颗粒,外形尺寸为90mm×14mm,采用128bit位宽,单模块容量可达128GB,支持8533 MT/s。该标准于2025年进入公众视野。
SOCAMM被业内重视,源于HBM的供应紧张态势。
2025年初,HBM的需求呈现井喷式增长,HBM3芯片现货价较2024年初暴涨300%,单台AI服务器的DRAM用量是传统服务器的8倍。存储巨头三星电子、SK海力士和美光科技也在2025年纷纷宣布,其2026年的HBM产能已被客户预订一空。
而HBM的需求激增,主要源于AI算力需求的爆发式增长,尤其是大模型训练和推理对高带宽内存的依赖度持续提升。在此背景下SOCAMM的横空出世,恰好填补了这一市场缺口。
那么SOCAMM与HBM又有哪些区别?
HBM是专为GPU/NPU等计算核心定制的近存式高带宽DRAM,核心是通过3D垂直堆叠+硅通孔(TSV)+2.5D硅中介层的极致封装,打破传统内存的带宽瓶颈。其技术定位为计算核心的“贴身缓存”,完全为极致带宽、极低延迟设计,是AI训练、超算等“带宽饥渴型”场景的刚需。
从带宽与容量层面,HBM以带宽为核心优势,容量居于次要地位;SOCAMM带宽低于HBM,总容量表现则更为突出。
在成本层面,HBM依赖TSV、混合键合、2.5D封装等尖端工艺,成本高、技术壁垒高;SOCAMM依托成熟LPDDR供应链,封装工艺简化,成本优势显著,约为HBM的四分之一。
在功耗与散热维度层面,HBM单位带宽能效高,但总功耗偏大;SOCAMM整体功耗处于低位。
在集成方式层面,HBM与GPU共封装为一体,容量出厂即固定,后期无法扩容,更换成本极高;SOCAMM采用类似“内存插卡”的设计,可随时更换、扩容,支持在线升级。
基于上述差异不难判断,HBM与SOCAMM并非竞争关系,而是分工互补:HBM在GPU侧承担核心计算的即时数据吞吐,为张量计算、矩阵运算提供极限带宽,保障训练与推理的核心算力稳定输出;SOCAMM则在CPU侧负责大规模数据缓存、长上下文存储与系统主存,支撑模型参数加载、数据预处理与多任务调度,补足HBM在容量与弹性上的短板。
SOCAMM技术从设计之初就定位清晰,是专为AI PC、AI服务器等场景打造的高带宽、低功耗内存解决方案。其目标在于实现接近HBM内存的性能表现,同时将成本控制在更具竞争力的水平。
02 最大金主,押宝SOCAMM2
去年中旬,市场消息称英伟达计划在当年生产约60万至80万块SOCAMM内存。此次新内存的增产将用于英伟达的AI产品堆栈。首批搭载SOCAMM内存的产品之一是最新的GB300 Blackwell平台,这已经暗示了英伟达打算为其众多AI产品过渡到新的内存规格。虽然80万片的目标产量远低于英伟达内存合作伙伴在2025年向英伟达交付的HBM内存数量,但2026年这一规模将开始扩大,尤其是在SOCAMM2内存上市之后。
去年3月,美光明确表示已向客户交付基于LPDDR5X的SOCAMM模块,其快速响应能力不仅体现了技术储备的深厚,更反映出对英伟达战略的紧密配合。虽然英伟达最先选择了美光作为其首个SOCAMM供应商,但三星正积极与主要AI客户协商样品测试。同时,SK海力士也在积极推动SOCAMM的商业化和推广。
随后在去年9月,英伟达做出了一项果断决策,宣布暂停推广第一代SOCAMM内存模块,并将研发资源全面转向新一代的SOCAMM2。于是三星、SK海力士、美光等存储龙头闻风而动,即刻调转方向,全力加快SOCAMM2的技术与产品布局。
从技术层面看,SOCAMM2在硬件架构上延续了SOCAMM1的694个输入/输出(I/O)端口设计,这一稳定的底层架构为其性能升级奠定了基础。值得关注的是,SOCAMM2的数据传输速度大幅跃升至9,600MT/s,相较于SOCAMM1的8,533MT/s,实现了约12.5%的显著提升。这一速率提升意味着在相同时间内,SOCAMM2能够传输更多的数据,为AI服务器的高速运算提供了更强大的数据吞吐能力。
更具前瞻性的是,SOCAMM2极有可能支持下一代低功耗内存LPDDR6。作为LPDDR5X的继任者,LPDDR6在诸多关键性能指标上实现了质的飞跃。
在SOCAMM2的竞赛中,美光和SK海力士跑在前列。
今年3月初,美光宣布已正式向客户出货业界最高容量的256GB SOCAMM2低功耗内存,这款产品采用业界首款单片32Gb LPDDR5X芯片打造。随后在刚刚过去的4月20日,SK海力士宣布已启动192GB SOCAMM2的大规模量产。这是一款专为英伟达Vera Rubin平台量身打造的下一代内存模组。
此次量产的192GB SOCAMM2,核心采用SK海力士1cnm工艺(第六代10nm级别工艺)制造的DRAM芯片。在核心性能层面,这款全新的192GB SOCAMM2实现了对传统服务器内存的全面超越。相较于数据中心广泛使用的传统RDIMM(寄存式双列直插内存模块),该新品不仅带宽实现翻倍增长,功耗效率更提升了75%以上,为AI场景下的高性能运算提供了深度优化的解决方案。SK海力士方面强调,该产品正是针对当前AI大模型发展的核心痛点打造,能够从根本上解决数千亿参数大语言模型(LLM)在训练与推理过程中遭遇的内存瓶颈问题,进而对大幅提升AI系统整体处理速度起到关键作用。
三星暂未有SOCAMM2量产的消息传出,不过三星称已解决翘曲(warpage)问题,这是SOCAMM2量产前的主要障碍。报道称,三星通过应用自研下一代低温焊料(LTS)技术解决了该问题。
关于SOCAMM2的大规模量产时间,上述厂商多指向2026年。据悉,英伟达向DRAM供应商提出的2026年SOCAMM2需求约为200亿Gb,其中三星承接了其中的100亿Gb,相当于8.3亿颗24Gb LPDDR DRAM芯片,预计每个月要以3至4万晶圆的产能才能满足,约占三星5%的整体DRAM产能。另外剩下的部分SOCAMM2需求,SK海力士将拿到60至70亿Gb的订单,剩余的则归美光。
这家国产存储公司,已下场做SOCAMM2
去年9月,江波龙在2025ODCC开放数据中心大会上正式发布了基于LPDDR5 (x) DRAM Die的创新型企业级内存模组产品SOCAMM2,提供64~256GB的单条容量和8533MT/s的传输速率。
江波龙表示SOCAMM2基于LPDDR5/5x颗粒和CAMM模块化设计,采用4-N-4 HDI超高密度互连叠层结构;其相较LPCAMM2去除了顶部凸出的梯形结构,进一步降低了整体高度,更适合服务器的安装环境和液体冷却系统。
SOCAMM2相较DDR5 RDIMM速率提升约33%、面积占用减少约70%、功耗降低约67.5%,同容量带宽达标准RDIMM的2.5倍,主要面向HPC高性能计算、通用服务器、AI集群服务器、AI训练/推理、智能辅助驾驶和工业边缘网关等应用场景。
03 为什么火的是SOCAMM2?
其实在2025年、2026年,横空出世的存储技术并不止SOCAMM,还有MRDIMM、CAMM2、HBF等,但是吸引了市场更多关注度的似乎只有HBF和SOCAMM。
究其原因,SOCAMM的爆火,实则是踩中了时代的三个“爽点”。
第一点,当前AI行业已从“训练阶段的技术竞赛”,逐步转向“推理阶段的规模化落地”,但Transformer架构存在一个核心短板——KV缓存会随上下文长度线性膨胀,导致传统DDR5内存带宽不足,进而拉长首Token生成时间,大幅降低服务器并发处理能力。SOCAMM2的出场,直击这一痛点,这对于追求性价比与运营效率的云服务商而言,这一提升直接转化为显著的成本节约与性能优化。
第二点,上文提到SOCAMM相较于HBM的部分优势使其实现了性能与成本的最优平衡。
第三点,也是极为重要的一点。传统的RDIMM内存是垂直插拔的,又占空间又挡风道,碰上现在流行的4U/8U高密度服务器和液冷技术,可谓“八字不合”。要知道在当前的AI服务器领域,液冷技术可是关键词之一。SOCAMM采用水平压缩连接方式,与PCB板紧密贴合,不仅使散热效率提升,还支持热插拔与在线扩容,运维成本直接降低,从而使其完美适配高密度数据中心的空间利用与散热需求,成为数据中心架构升级的核心适配方案。
从美光、SK海力士的量产竞速,到三星的技术攻坚,再到江波龙等国产厂商的强势入局,SOCAMM2的赛道上,已经集结了全球存储产业的核心力量。2026年,SOCAMM2的产能爬坡与商业化落地,将成为观测AI存储产业变革的关键窗口。当技术迭代的齿轮持续转动,一个由HBM与SOCAMM2共同支撑的全新内存生态,正悄然重塑着AI时代的算力底座。
本文来自微信公众号“半导体产业纵横”(ID:ICViews),作者:丰宁,36氪经授权发布。















