高通收到三星LPDDR6X样品,或与AI250芯片配合使用

 行业新闻    |      2026-02-21


近期,半导体行业一项涉及内存与AI芯片的协同动作引发了广泛关注。三星电子向高通公司交付了LPDDR6X内存样品,业界普遍认为这指向高通下一代AI推理芯片AI250的深度协同设计。这一动向不仅体现了头部厂商在AI硬件价值链上的前沿布局,也为未来AI服务器的内存技术路线提供了新的观察样本。


事件回溯:LPDDR6X样品交付的产业背景

2025年10月,高通技术公司发布了面向数据中心AI推理的解决方案——基于AI200和AI250芯片的加速卡及机架系统。一个关键的技术选择是,高通宣布新产品将采用LPDDR内存,而非同类AI加速卡上更为常见的HBM(高带宽内存),但当时并未说明具体的LPDDR类型。


近期,据韩媒The Bell及多家科技媒体报道,三星电子已向高通公司交付了LPDDR6X内存的原型样品。这一举动之所以引发行业高度关注,在于其超前的研发节奏。行业标准组织JEDEC(固态技术协会)在2025年第三季度才刚刚确立LPDDR6标准。参考历史,上代LPDDR5与增强版LPDDR5X的发布间隔了约两年,而LPDDR6X在标准确立后不久便进入样品阶段,其落地速度有望创造新的行业纪录。这一提速与高通紧凑的AI芯片产品路线图密切相关,促使三星加快了LPDDR6X的开发进程。


技术深析:AI250的"近内存计算"与LPDDR6X的协同效应

高通在发布AI250时,强调其首次采用了"近内存计算"(Near-Memory Computing)架构,官方宣称这能带来"10倍有效内存带宽"的提升及更低的功耗。要理解这一技术价值,需要拆解两个关键层面:


架构创新:打破"内存墙"瓶颈:在传统AI计算中,处理器频繁从内存读取数据的过程会产生显著的功耗和延迟,即所谓"内存墙"问题。高通的"近内存计算"架构,本质上是将部分计算逻辑更紧密地集成在内存颗粒附近,从而大幅缩短数据搬运路径,实现更高的有效带宽和能效比。这为支持需要频繁数据交互的分解式推理提供了底层支撑。


内存选型:LPDDR6X的性能支点:高通的架构创新能否兑现性能飞跃,关键在于与之匹配的内存颗粒。LPDDR6标准规定的最高速率为14.4Gbps。作为增强版,LPDDR6X预计将在这一基础上实现更高的数据传输速率和更优的信号完整性,为"近内存计算"架构提供充沛的"数据燃料"。这种组合有望在性能、功耗成本之间找到新的平衡点,尤其是在AI推理这类对总体拥有成本(TCO)敏感的场景。


产品路径:SOCAMM2模块的可能性

值得注意的是,此前有市场传闻称,AI200和AI250将搭配一种被称为SOCAMM2的内存模块。SOCAMM(System on Chip Advanced Memory Module)是一种面向特定计算场景的紧凑型内存模组设计。


结合三星向高通提供LPDDR6X样品的信息,一个清晰的产品路径浮现出来:三星可能正在打造基于LPDDR6X颗粒的SOCAMM2专用模块。这种模块化方案能够将高速内存与高通的AI芯片进行紧密耦合,既满足了高性能计算需求,又通过标准化接口确保了系统的可制造性和可维护性,为下一代AI加速卡提供了完整的硬件解决方案。


市场前景:2027年商用的战略意义

尽管LPDDR6X的JEDEC官方标准预计在2026年内才会正式敲定,但其产品化的进程已经实质性启动。按照目前的研发周期推算,配备LPDDR6X内存的高通AI250解决方案预计将在2027年正式投入商用


这一时间点具有多重战略意义:

对高通而言,这是其构建从移动端到数据中心的全链路AI能力的关键一步,旨在为AI推理市场提供一个在性能、功耗总体拥有成本(TCO)上都更具竞争力的选择。

对三星而言,率先切入AI服务器的LPDDR内存供应链,有助于其在HBM主导的高端市场之外开辟新的增长曲线,并巩固其作为先进内存解决方案领导者的地位。

对行业而言,这预示着AI服务器内存技术路线正在呈现多元化趋势。尽管HBM在顶级AI训练芯片中占据主导地位,但LPDDR凭借其显著的成本优势和功耗控制能力,在边缘推理、中低功耗服务器等特定应用场景中,将找到属于自己的广阔市场空间。