进入正文

三星 SOCAMM2,一款基于 LPDDR 的新型服务器内存模组,适用于下一代 AI数据中心

  • 邮件

随着人工智能在全球范围内加速普及,数据中心的计算工作负载正经历爆炸式增长。随着大规模模型训练向持续推理的转变,挑战不再仅仅局限于性能——能效对于维持下一代人工智能基础设施的运行也变得至关重要。这一转变推动了对低功耗内存解决方案的需求,这些解决方案既能支持持续的人工智能工作负载,又能降低功耗。

顺应这一趋势,三星开发了 SOCAMM2(小型压缩附加内存模组)——一款基于 LPDDR 的服务器内存模组,专为 AI 数据中心设计,目前已向客户提供样品。SOCAMM2 结合了 LPDDR 技术的优势与模块化、可拆卸设计,可提供更高带宽、更佳能效和更灵活的系统集成,从而帮助 AI 服务器实现更高效率与可扩展性。

Close-up image of Samsung SOCAMM2 LPDDR5X memory module, showing multiple LPDDR memory chips mounted on a compact, detachable server memory board
Close-up image of Samsung SOCAMM2 LPDDR5X memory module, showing multiple LPDDR memory chips mounted on a compact, detachable server memory board

 

SOCAMM2被关注的技术优势
基于三星最新的 LPDDR5X DRAM,SOCAMM2 融合了 LPDDR 的低功耗特性与模块化架构的优势,为数据中心提供了更丰富的内存选择。

虽然基于 DDR 的服务器模组(如 RDIMM,即寄存式双列直插内存模组)仍是高容量通用服务器的主流方案,但 SOCAMM2 作为互补选择,面向需要快速响应与高能效的下一代 AI 加速服务器进行了优化。相较传统 RDIMM,SOCAMM2 的带宽可提升至两倍以上,功耗可降低 55% 以上,并在高强度 AI 工作负载下保持稳定的高吞吐量表现。

此外,SOCAMM2 在继承 LPDDR 低功耗优势的同时,结合模块化形态的可扩展性,为多样化 AI 系统配置提供更大的设计灵活性,并提升面向下一代 AI 基础设施的适配性与可扩展能力。

 

 

投入使用SOCAMM2给客户带来的利益
SOCAMM2 的架构创新使客户能够以更高的效率、灵活性和可靠性运行 AI 服务器。

其可拆卸设计简化了系统维护和生命周期管理。与传统的焊接式 LPDDR 解决方案不同,SOCAMM2 无需对主板进行任何修改即可轻松升级或更换内存,从而帮助系统管理员最大限度减少停机时间,并显著降低总体拥有成本(TCO)。

此外,SOCAMM2 更高的能效表现使 AI 服务器部署中的散热管理更加便捷高效,有助于数据中心维持热稳定性并降低冷却需求——这对于高密度 AI 环境至关重要。

最后,相较于 RDIMM 的垂直布局,SOCAMM2 采用水平布局进一步提升了系统空间利用率,使散热器布局与气流设计更具灵活性,从而更顺畅地与 CPU 和加速器集成,同时保持与风冷和液冷系统的兼容性。

 


与 NVIDIA 和 JEDEC 标准化组织紧密合作
三星正在扩大其与全球AI产业伙伴的合作,以加速基于 LPDDR 的服务器解决方案的普及,并应对服务器市场日益增长的低功耗内存需求。特别是,三星正与 NVIDIA 密切合作,通过持续的技术合作,优化 SOCAMM2 以适配 NVIDIA 加速的基础设施,确保其能够提供下一代推理平台所需的高响应性与能效。

NVIDIA也强调了这种合作关系:

“随着人工智能工作负载从训练转向用于复杂推理和物理人工智能应用的快速推理,下一代数据中心需要兼具高性能和卓越能效的内存解决方案,”NVIDIA高性能计算和人工智能基础设施解决方案高级总监Dion Harris表示。“我们与三星的持续技术合作旨在优化SOCAMM2等内存解决方案,以提供人工智能基础设施所必需的高响应速度与能效。”

随着SOCAMM2作为下一代人工智能系统的低功耗、高带宽解决方案日益普及,业界已正式开展基于LPDDR的服务器模块标准化工作,并已进入收尾阶段。三星与主要合作伙伴共同参与了这项工作,致力于制定统一的设计准则,并促进未来人工智能平台之间的无缝集成。

 

Angled close-up image of a server motherboard with a central processor and surrounding memory components, used as part of Samsung’s SOCAMM2 server memory architecture
Angled close-up image of a server motherboard with a central processor and surrounding memory components, used as part of Samsung’s SOCAMM2 server memory architecture


通过与更广泛的人工智能生态系统持续合作,三星正推动下一代人工智能基础设施向低功耗、高带宽内存转型。SOCAMM2 是业界的一个重要里程碑——它将 LPDDR 技术引入主流服务器环境,并推动向新兴的超级芯片时代过渡。通过将 LPDDR 与模块化架构相结合,SOCAMM2 为构建更紧凑、更节能的人工智能系统提供了新的方向。

随着人工智能工作负载的规模和复杂性不断增长,三星将进一步推进其基于 LPDDR 的服务器内存产品组合,以更好地支持下一代人工智能数据中心的发展。


* 所示图像仅用于说明目的,可能与实际产品不完全一致。 图像经过数字编辑、修改或增强处理。
* 所有产品规格基于内部测试结果,并可能因用户系统配置而有所不同。 实际性能可能因使用条件与环境而异。