AI 算力调度+云原生应用,青云QingCloud助力企业数字化的秘笈

互联网
2023
08/24
17:17
分享
评论

AI大模型正掀起新一轮人工智能应用的热潮。最先受益的是云厂商这是由于云计算能够提供大模型所需的计算、存储等资源与服务,并且灵活可扩展、弹性调度,帮助企业迅速起步、降低成本,成为大模型训练、AI推理的必要基础设施。最热闹的也是云厂商,大模型正在带动云业务的发展,各家云厂商也在积极为企业训练和部署大模型提供包括AI算力在内的多元算力。

作为国内众多云厂商之一,青云科技面对新的市场需求,也快速走上了新的进击之路:一是构建和不断完善算力基础设施,提供多元算力产品和服务;二是借助云原生技术能力,为企业提供高效便捷的云原生服务帮助企业实现跨平台的应用部署和构建。

青云科技副总裁沈鸥表示:“对于AI大模型,我们看到的是企业都有兴趣,在这个领域也想要有所探索。相关AI算力价格随之水涨船高、供不应求。”

“大模型对算力和高速网络有很高需求,同时AI的应用也要求以云为载体,实现即插即用。AI与云融合,对云(计算)的增长空间和发展模式都将产生重大影响。”一位业内人士称。

但AI算力需求井喷的同时,企业在获取AI算力上也存在不少痛点。

首先,AI算力离不开计算、网络、存储等各种复杂底层资源和生态环境的创新与支撑。这些客观因素给企业自建数据中心,带来了非常高的技术和成本门槛。

其次,AI大模型的训练和推理,是一个复杂的技术体系,涉及多元算力统一、高效、灵活的调度和管理。而如何屏蔽底层异构基础设施的差异,按需及时获取不同的算力资源,满足不同业务场景的需求也非常关键。

再者,除了底层基础设施的支持外,强大的技术支撑团队、快速的AI需求响应能力、协助企业快速落地AI应用等方面支持,也是当下企业的全新需求。

打造完整的算力基础设施,一直是青云对外提供算力服务的优势。目前,青云已经形成了覆盖通用计算、高性能计算、科学计算等在内的多元算力服务矩阵包括企业级e系列云服务器、EHPC高性能计算、QKE容器引擎、分布式存储、企业云平台、超级智算平台等,为企业多场景AI业务开展提供稳定的算力支持。

众所周知,算力更多是资源驱动,本身并没有太高的竞争壁垒。市面上算力资源的提供方众多,但普遍缺乏相应的运营能力。沈鸥认为,算力资源提供方和资源需求方之间往往是不对等的,实现统一的管理运营就变得特别重要为此,青云在算力调度上不断提升能力,屏蔽超算服务器、AI 服务器、通用服务器等多种异构基础设施的差异,向下接驳异构化的算力和硬件平台,实现对算力的统一纳管、调度、配给和全生命周期管理,进而向上支撑各种行业应用。

同时,青云通过高度解耦、分布式的体系架构,还能够把第三方算力资源纳入青云的公有云服务体系当中,为客户提供更加高质低价的算力服务。

另外,青云也在积极拓展与大模型公司的合作互相补齐能力,比如算力接口和标准协议的建立、成熟的监控运维体系打造,以形成行业方案或者场景方案,满足AI客户更多层面的算力服务和大模型应用需要。

基于议价权、数据安全等多重因素考虑,多云战略成了越来越多企业的上云和用云的选择。而云原生技术,可以无视IaaS底层的差异性,提供应用服务。在云原生的加持下,PaaS逐渐与底层的IaaS解耦,算力资源服务商和应用服务供应商会慢慢形成两个群体。“青云将会借助云原生的能力,往应用服务的领域走”。

青云KubeSphere容器平台企业版4.0也已上线,其最大的亮点是采用了全新的LuBan架构,实现平台高度模块化,并提供丰富的插件中心,满足企业各种功能和场景需求。围绕LuBan架构和插件中心,KubeSphere企业版将携手合作伙伴、客户围绕云原生展开生态共建,加速企业云原生转型。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3