当业界聚焦于三星、SK海力士与美光在HBM赛道上的激烈竞逐时,另一场更为深远的转型已悄然启动:微软、高通等行业领袖,正将智能手机领域成熟的LPDDR内存引入AI数据中心的核心架构中。
这一动向揭示出一个关键趋势:在推动AI规模化落地的进程中,以DDR与LPDDR为代表的“高能效内存”路径,其市场空间与实用价值实际上远超HBM。内存技术的竞争焦点,已从追求极限性能,转变为对“能效与成本平衡”的系统性优化。

战略转向:LPDDR进入数据中心的逻辑
微软与高通拥抱LPDDR,是基于深度成本效益分析后的理性决策。评价标准已不再局限于理论算力,而是聚焦于“单次推理成本”——即处理每次AI请求所需的综合开销。
AI数据中心耗电量巨大,内存功耗可占系统总功耗的30%以上。LPDDR与生俱来的低功耗特性,在部署规模达到百万台服务器级别时,能带来数亿美元的电费节约。凭借先进封装技术,LPDDR可与AI计算芯片紧密集成,实现“近内存计算”。这种设计突破了传统总线瓶颈,使单台服务器化身为高密度“算力模块”,显著提升数据中心的空间利用效率,并降低基础设施与运维支出。依托于移动终端市场的庞大生态与出货规模,LPDDR具备显著的成本优势。在性能达标的前提下,极致的“每GB成本”与“每焦耳带宽”已成为规模化AI推理服务的关键竞争力。
核心阵地:推理市场驱动效率优先
AI产业的重心正从“模型训练”向“服务推理”迁移。据行业分析,未来超过80%的AI算力支出将用于推理环节。这一市场高度注重成本控制、能源效率与场景适应性。
DDR5与LPDDR5X正是在这样的环境中展现优势:DDR5凭借其在性能、容量与成本之间的出色平衡,将成为云端推理的主流支撑;而LPDDR5X则以极致的能效与封装灵活性,成为定制化AI芯片与高端边缘设备的首选方案。
产业链协同:重塑算力效率新标准
在这场围绕AI数据中心能效的演进中,全球领先企业正依据自身定位,共同定义下一代算力的价值维度。

作为云服务与AI应用的领军者,微软在其自研芯片中采用LPDDR的举措,实质上为行业树立了新标准:追求最优的“单次推理成本”已成为数据中心进化的核心目标。
高通则以专用加速芯片设计者的身份快速跟进,在其AI推理加速器中集成大容量LPDDR,将创新的架构理念转化为可实际部署的高能效硬件,为市场提供了不同于传统GPU的高效选择。
而作为重要DRAM供应商的长鑫存储,于2025年底推出的高速DDR5(8000Mbps)与高能效LPDDR5X(10667Mbps)产品,恰好为这场转型提供了性能达标、供应稳定且具备成本优势的内存解决方案。
无论是微软与高通在算力架构上的选择,还是长鑫存储在内存产品上的迭代,均清晰指向同一个行业共识:内存技术的竞争主战场,已从HBM的性能高峰,转向DDR/LPDDR所代表的效率平野。胜利不再仅由峰值带宽决定,而是取决于谁能以更高的能效和更低的总体拥有成本,稳定、持续地支撑全球AI推理服务的海量需求。
这标志着AI发展进入了规模化与商业化的“深度运营”阶段。最终赢得这片更广阔能效市场的企业,将在AI算力普及的新时代中掌握主导权。