宝德昇腾AI服务器PR420KI G2创新大模型算力底座

互联网
2023
07/27
09:49
分享
评论

随着ChatGPT的出圈爆火,AIGC技术已开启了快速发展模式,不少企业纷纷发力布局AI大模型领域,多个AI大模型如雨后春笋般涌现,呈现“百模齐放”之势。而AI大模型千千万,但是能走进千家万户、赋能千行百业才是硬道理。

算力作为人工智能发展的引擎,更是AI大模型的重要驱动力。AI大模型的参数量和计算量庞大,要训练出优秀的AI模型并真正应用于各行各业,需要巨大的算力支持。因此,百模齐发之时,能为大模型训练提供强劲运算能力和高效安全的底座的AI算力成为各路必争的利器。

作为中国AI服务器TOP3企业,宝德创新升级,重磅推出了自强®系列昇腾AI训练服务器PR420KI G2,助力大模型赋能千行百业。该服务器面向深度学习模型开发和AI训练服务场景,专为大模型训练而生,具有更高算力密度、超高能效与高速网络带宽等优势,提供丰富的算力资源,能加速处理运算,满足大模型训练的海量算力需求。

更高算力密度,高效加速AI应用

宝德自强®训练服务器PR420KI G2基于鲲鹏+昇腾处理器打造,在4U空间内提供2.5PFLOPS FP16超强算力,最高提供0.65PFLOPS FP32业界领先算力,具有海量数据并行计算能力,可轻松应对大模型沉重的计算压力。同时搭载8颗超强算力的昇腾处理器,其内部集成了图像&视频预处理器,外部通信模块、硬件加速器、芯片管理核等模块,提供完整的SOC功能,能高效加速AI应用。

高速网络带宽,加速大模型技术升级落地

AI大模型一方面需要强大的计算能力,另一方面也需要高速可靠的网络让数据及时流动。而模型参数量越大,对带宽的需求就越高。PR420KI G2提供高速网络带宽,延时低,可有效减少大模型训练的时间成本。它具有8*200G RoCE v2高速接口,8路NPU通过HCCS Full mesh互联模式,双向互联带宽可达392GB/s,全面提升大模型的训练效率。同时整机HBM缓存512G,带宽达1600GB/s,进一步释放 AI 潜能,助力大模型算力瓶颈突破,加速大模型技术的迭代升级和落地应用。

极致能效比,兼顾高算力低能耗

碳中和背景下,大模型追求高算力的同时也要兼顾节能减排。PR420KI G2配置高效节能电源、动态冷却机制,提供2.5PFLOPS/5.2kW超高能效比,在保持其性能的同时,大大节省运营费用,降低训练成本;同时,还采用智能散热系统,根据热关键器件温度综合调节风扇转速,节能的同时降低了噪音并提高风扇的可靠性。

此外,PR420KI G2还采用2+2 冗余电源设计,提供多种 RAID 保护级别,具备数据处理性能和保护数据功能,为服务器的运行安全提供更高的安全保障。它可广泛适用于大模型训练、智慧城市、智慧医疗、天文探索、石油勘探、高性能计算(HPC)等需要大算力的应用场景,为加速更多AI落地和应用提供澎湃动力。

当前AI大模型正不断向纵深发展,在国家政策的影响下,高算力、高带宽、低能耗的AI算力基础设施将更受青睐。未来,宝德将继续充分发挥自身AI服务器领域的技术优势和市场经验,加速大模型与实体产业的深度融合,助推更多大模型场景落地和应用,促进千行百业数字变革,为我国人工智能产业的发展注入强劲的动力。

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3