2025 年 8 月 28 日至 30 日,第二届 CCF 中国存储大会在武汉盛大召开。作为我国信息存储与计算领域的高规格年度盛会,大会汇聚院士、顶级专家、产业代表等各界力量,围绕智能时代存储技术前沿与产业应用展开深度交流。其中,国内高性能存储领先企业焱融科技凭借全闪存储与 YRCache 两大核心技术,及其在 AI 训练与推理全流程加速中的实践成果,成为大会焦点,引发行业广泛关注。
政策驱动下,AI 存储成 “人工智能 +” 关键支撑
大会召开前夕,国务院印发《关于深入实施 “人工智能 +” 行动的意见》,明确将人工智能定位为 “新时代生产力引擎”,强调其对重塑生产生活方式、推动产业变革的核心作用。这一政策红利为 AI 产业注入强劲动力,具有重大意义且影响深远。
在这一轮 AI 技术浪潮中,大模型无疑是最鲜明的特征。大模型训练、推理和多模态学习等场景持续爆发式增长,对底层算力、存储和网络等基础设施提出了极高要求。在存储方面,AI 业务具有数据规模大、访问性能要求高、吞吐与延迟敏感等特点,传统存储系统难以满足其高效处理和智能调度需求。尤其在推理场景中,响应速度直接影响用户体验,而 PB 级 KV 缓存数据的高频访问是影响速度的重要因素,需借助存储性能,弥补 KV 计算带来的算力和时间损耗,实现成本、性能与效果的平衡。在此背景下,适配 AI 场景的存储解决方案,已成为 “人工智能 +” 落地的核心刚需。
焱融全闪存储破局 AI 训推性能瓶颈,刷新全球纪录
针对 AI 训推的性能痛点,焱融科技推出新一代全闪存储一体机 F9000X,基于自主研发的 YRCloudFile 分布式文件系统,从架构设计到场景适配全面贴合 AI 需求。
硬件层面,F9000X 搭载全 PCIe 5.0 NVMe SSD,支持 NVIDIA NDR 400 InfiniBand/400GbE RoCE 高速网络,从底层突破数据读写瓶颈,实现极高的传输速度与超低延迟;场景层面,其能高效承载海量小文件、高并发读写等典型 AI 工作负载,确保数据持续流畅输入计算单元,避免算力闲置,充分释放 GPU 潜能。
其性能实力已获国际权威认证:F9000X 连续两年在 MLPerf Storage Benchmark(全球顶级 AI 存储测试)中斩获多项世界第一。在 2025 年 8 月初发布的 MLPerf Storage v2.0 测试中,该产品在 3D-Unet 模型测试里,3 节点存储集群带宽突破 513GB/s,刷新全球纪录,用硬核数据证明了在 AI 训推场景的领先优势。
YRCache 创新 “以存代算”,实现推理降本增效
随着 AI 产业迈入 “推理时代”,“提升效率、降低成本” 成为企业核心诉求。焱融科技基于长期 AI 存储实践,推出 YRCache 推理加速方案,以 KV Cache “以存代算” 技术突破,为行业提供全新解题思路。
该方案的核心优势集中在四方面:一是PB 级缓存扩容,将 GPU 显存扩展至外部高性能存储池,存储容量达 PB 级,极大扩展推理上下文,支撑复杂推理任务;二是智能分级缓存,通过智能分级缓存调度算法实现 KV Cache 数据的精细化管理,大幅提高 KV 数据命中率,进一步提升推理效率;三是共享存储设计,构建统一的高性能 KV Cache 共享存储池,支持 GPU 对缓存空间的共享访问,提升系统资源调配的灵活性与资源利用率;四是降本增效双赢,释放的 GPU 显存可承载更多核心计算,同等算力下并发请求支撑量显著增长,推理成本大幅降低。
焱融 YRCache 方案的实际落地成果亮眼:在某大型互联网医疗平台的 AI Agent 项目中,YRCache 将推理性能提升 65%,GPU 资源消耗显著减少,平台并发支撑能力提升超 2 倍 —— 既让患者享受到 “秒级应答” 的智能问诊服务,也为企业节省大量硬件成本,实现业务价值与成本控制的双重优化。
深耕 AI 存储赛道,助力 “人工智能 +” 落地
随着 “人工智能 +” 行动深入推进,AI 技术将加速渗透医疗、智造、互联网、科研等更多领域,存储作为底层支撑的作用将愈发关键。未来,焱融科技将持续深耕 AI 存储赛道,以全闪存储、YRCache 等技术为核心,迭代更适配行业需求的解决方案,助力企业突破 AI 数据处理瓶颈,加速 AI 从 “技术创新” 向 “价值创造” 转化,为我国 “人工智能 +” 行动的全面落地筑牢存储根基。