在2025云栖大会上,英特尔与阿里云联合宣布了一系列基于新一代至强®6处理器的云实例与存储方案落地,涵盖第九代ECS g9i实例、u2i普惠算力实例、内存增强型实例re8,以及支持CXL 2.0内存池化的磐久AI存储服务器。
这些成果不仅是双方技术协同的阶段性答卷,也折射出AI规模化落地对云计算基础设施提出的新挑战——高性能、高弹性、低TCO(总体拥有成本)正成为全球云厂商竞速的关键指标。
从“一核多用”到“内存池化”,云基础设施走向柔性架构
“通过英特尔的BIOS Setting关核技术,我们能用同一颗120核的至强®6处理器,动态调配出72核、96核等不同规格的实例,服务于高性能计算、通用企业负载和成本敏感型场景。” 阿里云弹性计算产品线、存储产品线产品负责人陈起鲲在接受采访时指出,硬件统一化极大地提升了云厂商的资源利用率和弹性调度能力。
陈起鲲进一步解释道,阿里云在全球29个区域、91个可用区中部署同一套硬件架构,通过软件定义的方式实现资源动态分配,从而在面对突发性算力需求时,能像“水电煤”一样实现快速供给。
而在内存层面,双方合作推出的CXL (Compute Express Link) 2.0内存池化技术,则被视为下一代云架构的重要突破。英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示,CXL不仅实现了内存容量的灵活扩展,更通过热插拔、多通道交织访问等机制,提升了系统的可靠性与可维护性。阿里云瑶池数据库团队基于CXL 2.0 Switch技术打造的PolarDB数据库专用服务器,可实现和本地一样低延迟、高带宽的远程内存访问,延迟可低至百纳秒级,带宽吞吐达到数TB/s,从而让内存资源“池化可共享、按需可调度”,计算、内存、存储“全栈解耦”。
AI驱动算力异构化,CPU正重新定义“中央调度”角色
随着AI模型从“单一巨量化”走向“大小模型协同”,算力需求也呈现出分层、异构的特征。英特尔不仅在CPU层面集成AMX矩阵加速指令集,支持FP16、BF16等精度计算,还通过Gaudi AI加速器、Arc显卡等产品组合,覆盖从推理到训练、从端到云的全场景需求。
“至强6配上AMX,完全可以跑3B规模的模型。而在GPU集群中,至强6作为‘机头CPU’,承担着数据预处理、I/O调度、资源池化管理等任务。”陈葆立指出,CPU在AI时代扮演的是“统筹者”角色,其通用性、兼容性与弹性,恰是云底座最需要的特质。
阿里云方面也强调,AI不等于GPU,许多场景下CPU更具性价比优势。例如在向量检索、视频预处理、自动驾驶数据清洗等环节,基于至强6的实例展现出显著性能提升。小鹏汽车通过采用g9i实例,每日PB级数据预处理吞吐大幅提升,成本得以下降。
软硬协同与全球化交付能力成竞争分水岭
在云栖大会英特尔专场论坛中,阿里云服务器研发首席架构师,资深技术专家刘礼寅多次提到“稳定性”与“工程支持能力”是双方长期合作的基础。据悉,阿里云基于英特尔架构的实例稳定性比业界领先水平高一个数量级,背后是双单路服务器设计、故障热迁移、硬件预判等15年来在超大规模集群运维中的积累。
此外,软硬一体优化成为差异化竞争力的来源。例如,阿里云在至强6平台上率先实现CXL 2.0内存池的产品化,并结合自研AliSCM持久内存、QAT压缩加速、DMA数据直接存取等技术,构建起从硬件到平台层的全链路优化能力。
陈起鲲透露,目前阿里云商业化规模远超集团内部需求,服务覆盖全球多个区域,这意味着其技术方案需具备高度的标准化与适应性。“我们不仅要考虑性能,还要考虑功耗、机房密度、资源售卖率、碎片化资源利用等全链路成本。”
从“上云”到“云上智能化”,生态共筑成必然发展路径
本次大会中,英特尔亦展示了与通义千问基于OpenVINO在AI PC端的智能体工作流,体现出其“云-边-端”协同的战略布局。而阿里云则通过Model as a Service、容器计算服务ACS等产品,将IaaS、PaaS、MaaS能力纵向整合,降低AI应用开发门槛。
在行业看来,AI正从技术探索进入规模化应用期,模型迭代速度加快、成本压力凸显,倒逼基础设施走向更高效、更开放、更易用的架构。英特尔与阿里云的合作,正是通过硬件性能提升、软件栈深度优化、资源池化与解耦,为千行百业提供一条可扩展、可持续的智能化路径。
云栖大会现场,一位工程师对记者表示:“未来的数据中心,不会是单一的算力堆砌,而是CPU、内存、存储、网络、加速器各类资源池化后,按业务需求动态组合的‘活系统。”在这场以AI为名的云端基建升级中,英特尔与阿里云的合作,既是对当前算力挑战的回应,也是对下一代云计算架构的提前布局。
【来源:环球网】