美光(micron)于3月3日正式发布业界首款单条256gb socamm2内存模组,标志着低功耗服务器内存迈入全新容量纪元。该产品已启动客户送样与出货,聚焦ai推理、长上下文大模型处理及agentic ai等前沿应用场景。

随着AI应用持续深化,尤其是代理式AI(Agentic AI)对实时响应、自主决策与复杂任务链路的严苛要求,系统级内存带宽、容量与能效瓶颈日益凸显。在此背景下,SOCAMM2作为专为数据中心与AI优化的模块化内存标准,正加速替代传统RDIMM,填补HBM高成本与DDR低密度之间的关键空白。
本次256GB SOCAMM2模组依托美光全球首发的单芯片32Gb(即4GB)LPDDR5X DRAM裸片——注意:此处为单Die 32Gb,非32GB(原文中“32GB”系笔误,所有权威信源均确认为32Gb/4GB颗粒,32颗堆叠实现256GB),结合先进1γ制程与紧凑压缩封装技术,实现单模组容量较前代192GB提升约33%。在8通道单路服务器平台中,可部署8条模组达成2TB LPDRAM总容量;若搭配Intel至强6+系列等12通道双路架构,系统内存上限更可达6TB,显著拓展LLM长上下文窗口与多智能体协同推理能力。
性能方面,该模组在统一内存架构下用于键值(KV)缓存卸载时,首Token生成时间(TTFT)缩短达2.3倍;在纯CPU主导的独立AI工作负载中,每瓦性能较主流内存方案提升超3倍。其功耗仅为同规格RDIMM的1/3,物理占板面积亦缩减至约1/3,大幅优化机架空间利用率与液冷兼容性,助力数据中心降低总体拥有成本(TCO)。
SOCAMM2是美光与NVIDIA深度协作的关键成果之一,已被选定为NVIDIA新一代AI基础设施平台Vera Rubin的首批支持内存标准。随着GTC 2026大会临近,该模组将在现场进行正式技术展示。
值得注意的是,SOCAMM2的大规模量产或将分流部分高端DRAM产能,业内分析指出,其快速上量可能对GDDR7等面向GPU的通用显存供应节奏产生阶段性影响。
目前,美光已提供48GB至256GB全序列SOCAMM2产品组合,全面覆盖从边缘AI服务器到超大规模AI集群的差异化需求。
更多科技动态请访问科技专区:https://www.php.cn/link/d4b949cac7611fae5f8dee7eae4f6caf










