
英伟达暂停初代SOCAMM内存项目 重构AI服务器内存市场!当HBM(高带宽内存)价格飙升至每GB 10美元,AI服务器厂商纷纷表示难以承受时,英伟达突然暂停了初代SOCAMM内存项目。该项目原计划年部署80万个模块,但经过两次搁置后,转而全力开发SOCAMM2。这不是技术失败,而是更深层次的策略:用14.3TB/s的带宽、比DDR5低三分之一的功耗,以及“非板载可更换”的灵活性,在HBM垄断的AI内存市场开辟一条“平民化”赛道。HBM负责“极限性能”,SOCAMM2负责“大规模普及”,英伟达正通过这两种内存方案重新平衡AI服务器的成本与性能。

很多人误以为SOCAMM2是HBM的廉价替代品,实际上两者关系类似于显卡的“独立显存”与“系统内存”。HBM通过3D堆叠与GPU封装,解决AI训练时“万亿参数瞬间调用”的极致性能需求,如GB300 GPU的HBM带宽可达30TB/s;而SOCAMM2则通过LPDDR5X/LPDDR6与CAMM模组的组合,解决“内存灵活扩展”问题,单模块支持最高18TB容量,且可像插U盘一样独立更换,无需拆主板。这种分工直击AI服务器的核心矛盾:当前HBM产能被三星、SK海力士垄断,预计2025年全球HBM总产能仅1.2亿GB,不足以满足10万台高端AI服务器的需求;而DDR5虽便宜,但因带宽不足(单通道最高102GB/s),在大模型推理时频繁拖慢GPU。SOCAMM2的出现正好填补了这一缺口:带宽接近HBM,成本却只有HBM的五分之一,功耗也更低。英伟达文档显示,Vera Rubin平台的CPU将优先搭载SOCAMM2,让AI服务器既能用HBM跑训练,又能用SOCAMM2扩展“数据缓存池”,实现“性能不妥协,成本可承受”。

技术前瞻性方面,SOCAMM2极可能首发支持LPDDR6,这种下一代内存采用24位双通道设计,单通道带宽比LPDDR5X提升40%,还能通过“子通道休眠”技术进一步降低功耗。一旦LPDDR6量产,SOCAMM2的带宽有望突破20TB/s,直接威胁HBM在中高端AI服务器的地位。尽管LPDDR6目前还在验证阶段,兼容性、量产良率都是未知数,但英伟达押注于此,赌的是“AI内存需求会从‘少数高端’爆发到‘多数中端’”。据TrendForce数据显示,2025年AI服务器市场规模将达2980亿美元,占整个服务器行业70%,其中80%都是对成本敏感的推理服务器。
SOCAMM2的战场已不仅是技术比拼,更是“生态卡位战”。美光是第一个吃到螃蟹的公司,今年3月向客户交付了基于LPDDR5X的SOCAMM模组,虽然因英伟达主板设计变动没能商用,但积累了宝贵经验。美光现在策略明确:用“先发优势”绑定英伟达Vera Rubin平台,优先拿下北美云厂商订单。三星和SK海力士则走“技术差异化”路线,三星重点优化散热,SK海力士死磕速率,两家都已拿到英伟达的样品测试订单,计划2025年初量产。国产厂商也在努力突围,江波龙最近曝光的SOCAMM2方案降低了模组高度,精准适配国内服务器厂商的“液冷需求”。
SOCAMM2要从实验室走向服务器机房,还需跨过几道坎。首先是兼容性关,现有的AI服务器主板大多为DDR5设计,要支持SOCAMM2需更换内存控制器和主板插槽。英伟达计划为首批合作厂商提供每台服务器500美元的主板补贴。其次是成本关,尽管SOCAMM2比HBM便宜,但LPDDR5X颗粒的价格仍是普通DDR5的两倍。最后是生态协同关,内存不是孤立硬件,需要软件适配。英伟达已联合红帽、SUSE开发适配驱动,计划2025年Q2发布完整的“SOCAMM2生态套件”。
TrendForce预测,2025年AI服务器市场规模将达2980亿美元,其中内存成本占比高达35%。SOCAMM2的意义不仅在于市场份额,更在于打破垄断。过去两年,HBM厂商靠“独家供应”坐地起价,HBM3e颗粒价格从2023年的每GB 5美元涨到2024年的10美元。SOCAMM2的出现迫使HBM厂商降价,如SK海力士已宣布HBM3e价格下调15%。长远来看,SOCAMM2可能推动内存行业从“技术内卷”转向“场景适配”,提高AI服务器效率。
SOCAMM2的故事本质上是一场“技术民主化”运动。当大模型训练成本动辄过亿,HBM成为少数巨头的“奢侈品”时,英伟达用SOCAMM2证明:AI内存不必非黑即白,性能与成本可以平衡,垄断与普及可以共存。明年第一批搭载SOCAMM2的服务器开机时,或许会发现AI算力的普及,是从内存成本下降那一刻真正加速的。英伟达暂停初代SOCAMM内存项目 重构AI服务器内存市场!
国汇策略-国汇策略官网-专业炒股配资网-股票配资的流程提示:文章来自网络,不代表本站观点。