电子行业:产业链重视CXL技术 英伟达有望推进
lnradio.com
4
事件:根据韩国媒体报道,英伟达Vera CPU 有望支持CXL 协议。 CXL 内存池方案可优化存储系统效率,未来AI 存储架构有望重塑。部分投资者忽略了内存池方案在AI 算力硬件架构中的应用前景。我们认为,CXL 内存池方案能显著优化存储系统效率,未来AI 算力设施中的内存硬件构成有望重塑。CXL 内存池化方案对跨CPU、GPU 及其他计算加速器的内存资源进行统一寻址、统一调度与透明访问,实现内存资源的整合与统一调度,从而支撑更大规模、更高并发的大模型训练与推理任务。从容量需求来看,AI 推理过程中上下文缓存、模型权重等数据存储需求不断提升,而当前服务器内存提升受到插槽数量与单根内存条的容量制约。此外,当前存储架构存在调度低效等问题,模型参数和激活值需要频繁从 HBM 迁移到CPU DRAM 再到 SSD,由于带宽差异显著且缺乏统一内存语义的底层直连协议,容易导致延迟放大、链路带宽浪费以及吞吐率下降;不同任务对计算资源与内存资源的侧重差异大,现有静态分配资源的方案也可能会导致算力浪费或内存瓶颈问题。 针对现有存储架构的问题,CXL 内存池方案有望为AI 算力设施拓展内存空间并提供更灵活的资源分配方案,从而提升Al 模型训练和推理能力。 CXL 内存池方案相关软硬件逐步完善,头部厂商推进应用。部分投资者认为内存池方案成熟度有限。我们认为,目前CXL 内存池相关软硬件已逐步完善,头部大厂正加速推进布局。在互联协议方面,CXL 4.0 规范在25 年11 月发布,数据速率达到了128 GT/s,较CXL 3.0 翻倍。在存储芯片厂商方面,SK 海力士已完成基于CXL 2.0的DDR5 客户验证。英伟达于2025 年9 月收购Enfabrica 的核心团队和技术授权;该公司的技术核心是加速计算结构(ACF)与弹性内存架构,其ACF-S 超级网卡芯片整合PCIe/CXL 交换与以太网RDMA 功能,支持10 万级GPU 互联;ACF-S 芯片的CXL 内存池解决方案,通过共享DDR5 内存缓解GPU 高带宽内存(HBM)瓶颈。国内服务器厂商也已经推出内存池化相关方案,2025 年阿里云于云栖大会上宣布推出全球首款基于CXL 2.0 Switch 技术的PolarDB 数据库专用服务器;浪潮信息于2025 年12 月推出元脑服务器CXL 内存扩展方案,基于元脑服务器NF5280G7,在24 条本地DRAM 内存的基本配置下内置CXL 内存扩展卡。 CXL 内存池方案持续创新,进一步适配AI 推理需求。各大厂商正在持续推进内存池方案创新,以适配AI 推理需求。2026 年3 月,浪潮元脑服务器操作系统KOS 基于CXL 内存池化技术,推出“存传一体”的KVCache 管理系统MantaKV,将P 节点产生的海量KVCache 集中存储在CXL 池化共享内存中,既直接供D 节点解码使用(无需再次传输),又自然成为全局可用的持久缓存(无需卸载至P 节点本地SSD),将两次独立搬运合并为单次写入,以解决传输冗余问题,提升模型推理效率。2026 年3 月,北京大学联合阿里云等首次提出使用 CXL 内存池来存储Engram,将基于 CXL 的 Engram 内存池集成到 SGLang 框架中,实现了接近本地DRAM 的端到端性能,为集成 Engram 的大型语言模型提供了一种可扩展且具有成本效益的存储解决方案。我们认为,各大厂商持续推动以内存池方案优化AI 推理效能,内存池方案有望随着AI 推理需求提升持续打开空间,产业链有望深度受益。 产业链重视CXL 技术,英伟达有望推进。相关标的:澜起科技、聚辰股份、江波龙、佰维存储等。 风险提示 AI 落地不及预期,技术迭代速度不及预期,国产化进展不及预期 【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱: