根据韩国媒体报道,
英伟达Vera CPU有望支持CXL协议
CXL内存池方案可优化存储系统效率,未来AI存储架构有望重塑。部分投资者忽略了内存池方案在AI算力硬件架构中的应用前景。我们认为,CXL内存池方案能显著优化存储系统效率,未来AI算力设施中的内存硬件构成有望重塑。CXL内存池化方案对跨CPU、GPU及其他计算加速器的内存资源进行统一寻址、统一调度与透明访问,实现内存资源的整合与统一调度,从而支撑更大规模、更高并发的大模型训练与推理任务。从容量需求来看,AI推理过程中上下文缓存、模型权重等数据存储需求不断提升,而当前服务器内存提升受到插槽数量与单根内存条的容量制约。此外,当前存储架构存在调度低效等问题,模型参数和激活值需要频繁从HBM迁移到CPU
DRAM 再到SSD,由于带宽差异显著且缺乏统一内存语义的底层直连协议,容易导致延迟放大、链路带宽浪费以及吞吐率下降;不同任务对计算资源与内存资源的侧重差异大,现有静态分配资源的方案也可能会导致算力浪费或内存瓶颈问题。针对现有存储架构的问题,CXL内存池方案有望为AI算力设施拓展内存空间并提供更灵活的资源分配方案,从而提升Al模型训练和推理能力。
CXL内存池方案相关软硬件逐步完善,头部厂商推进应用。部分投资者认为内存池方案成熟度有限。我们认为,目前CXL内存池相关软硬件已逐步完善,头部大厂正加速推进布局。在互联协议方面,CXL4.0规范在25年11月发布,数据速率达到了128GT/s,较CXL3.0翻倍。在
存储芯片厂商方面,SK海力士已完成基于CXL2.0的DDR5客户验证。英伟达于2025年9月收购Enfabrica的核心团队和技术授权;该公司的技术核心是加速计算结构(ACF)与弹性内存架构,其ACF-S超级网卡芯片整合PCIe/CXL交换与以太网RDMA功能,支持10万级GPU互联;ACF-S芯片的CXL内存池解决方案,通过共享DDR5内存缓解GPU高带宽内存(HBM)瓶颈。国内服务器厂商也已经推出内存池化相关方案,2025年阿里云于云栖大会上宣布推出全球首款基于CXL2.0Switch技术的PolarDB数据库专用服务器;
浪潮信息于2025年12月推出元脑服务器CXL内存扩展方案,基于元脑服务器NF5280G7,在24条本地DRAM内存的基本配置下内置CXL内存扩展卡。
CXL内存池方案持续创新,进一步适配AI推理需求。各大厂商正在持续推进内存池方案创新,以适配AI推理需求。2026年3月,浪潮元脑服务器操作系统KOS基于CXL内存池化技术,推出“存传一体”的KVCache管理系统MantaKV,将P节点产生的海量KVCache集中存储在CXL池化共享内存中,既直接供D节点解码使用(无需再次传输),又自然成为全局可用的持久缓存(无需卸载至P节点本地SSD),将两次独立搬运合并为单次写入,以解决传输冗余问题,提升模型推理效率。2026年3月,北京大学联合阿里云等首次提出使用CXL内存池来存储Engram,将基于CXL的Engram内存池集成到SGLang框架中,实现了接近本地DRAM的端到端性能,为集成Engram的大型语言模型提供了一种可扩展且具有成本效益的存储解决方案。我们认为,各大厂商持续推动以内存池方案优化AI推理效能,内存池方案有望随着AI推理需求提升持续打开空间,产业链有望深度受益。
$聚辰股份(sh688123)$