阿里云发布通义Qwen3-Next基础模型架构并开源80B-A3B系列

业界
2025
09/12
10:53
IT之家
分享
评论

阿里云发布通义Qwen3-Next基础模型架构并开源80B-A3B系列:改进混合注意力机制、高稀疏度MoE结构

9 月 12 日消息,阿里云通义团队今日宣布推出其下一代基础模型架构 Qwen3-Next,并开源了基于该架构的 Qwen3-Next-80B-A3B 系列模型(Instruct 与 Thinking)。

通义团队表示,Context Length Scaling 和 Total Parameter Scaling 是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,他们设计了全新的 Qwen3-Next 的模型结构。

该结构相比 Qwen3 的 MoE 模型结构,进行了以下核心改进:混合注意力机制、高稀疏度 MoE 结构、一系列训练稳定友好的优化,以及提升推理效率的多 token 预测机制。

基于 Qwen3-Next 的模型结构,通义团队训练了 Qwen3-Next-80B-A3B-Base 模型,该模型拥有 800 亿参数(仅激活 30 亿参数)、3B 激活的超稀疏 MoE 架构(512 专家,路由 10 个 + 1 共享),结合 Hybrid Attention(Gated DeltaNet + Gated Attention)与多 Token 预测(MTP)。

IT之家从官方获悉,该 Base 模型实现了与 Qwen3-32B dense 模型相近甚至略好的性能,而它的训练成本仅为 Qwen3-32B 的十分之一不到,在 32k 以上的上下文下的推理吞吐则是 Qwen3-32B 的十倍以上,实现了极致的训练和推理性价比。

该模型原生支持 262K 上下文,官方称可外推至约 101 万 tokens。据介绍,Instruct 版在若干评测中接近 Qwen3-235B,Thinking 版在部分推理任务上超过 Gemini-2.5-Flash-Thinking。

据介绍,其突破点在于同时实现了大规模参数容量、低激活开销、长上下文处理与并行推理加速,在同类架构中具有一定代表性。

模型权重已在 Hugging Face 以 Apache-2.0 许可发布,并可通过 Transformers、SGLang、vLLM 等框架部署;第三方平台 OpenRouter 亦已上线。

【来源:IT之家

THE END
广告、内容合作请点击这里 寻求合作
阿里云
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

5月22日,在阿里云中企出海大会上,阿里集团CEO、阿里云董事长兼CEO吴泳铭表示,阿里云将以战略级投入,加速打造全球云计算一张网,加速AI产品国际化,增强出海咨询、技术和服务团队建设,为中国企业出海...
业界
5 月 22 日消息,5 月 21 日,TCL 与阿里云宣布达成全栈 AI 战略合作。
业界
3 月 29 日消息,《自动驾驶 Daily》昨日透露,特斯拉正在和阿里云深入接触,或许未来双方有合作的可能。
业界
3月21日消息,阿里云今日宣布与新加坡国立大学、泰国数字经济促进局等10所高校及政府机构达成合作,推出AI及云计算培训课程,覆盖泰国、新加坡、中国香港等7个亚洲主要国家及地区。
业界
2月18日消息,据阿里云官方微信消息,继DeepSeek全系列模型上线阿里云后,阿里云一站式智能大数据开发治理平台DataWorks正式接入DeepSeek-R1(671B)模型与DeepSeek-R1-Distill-Qwen-32B模型。
业界

相关推荐

1
3