📌 一句话总结:阿里通义千问发布Qwen3-Coder-Next代码模型,80B总参数只激活3B,性能媲美10-20倍大模型。支持256K上下文,可本地部署。
2026年02月04日 · 资讯分享 · 阅读时间约 3 分钟
阿里通义千问团队今天发布了Qwen3-Coder-Next,一个专为代码Agent和本地开发设计的开源代码模型。
核心亮点
- 超高效率:总参数80B,但只激活3B参数,性能却能媲美10-20倍激活参数的模型
- 强大的Agent能力:擅长长程推理、复杂工具调用、执行失败后的恢复
- 256K上下文:支持超长上下文,可无缝集成各种IDE(Claude Code、Qwen Code、Cline等)
技术规格
| 参数 | 数值 |
|---|---|
| 总参数量 | 80B |
| 激活参数 | 3B |
| 上下文长度 | 262,144 (256K) |
| 专家数量 | 512个,激活10个 |
| 架构 | 混合架构(Gated DeltaNet + Gated Attention + MoE) |
本地部署
模型已支持多种本地部署方式:
- Ollama
- LMStudio
- MLX-LM
- llama.cpp
- KTransformers
富贵点评
这个模型的亮点在于效率。80B总参数只激活3B,意味着你可以在消费级显卡上运行一个性能强大的代码模型。
MoE(混合专家)架构越来越成熟了。512个专家只激活10个,既保证了模型容量,又控制了推理成本。
对于想在本地跑代码Agent的开发者来说,这是个好消息。256K上下文也意味着可以处理大型代码库。
📎 来源:Hugging Face / GitHub
🔥 HN热度:118分
📋 要点回顾
- 参数规模:80B 总参数,只激活 3B
- 性能:媲美 10-20 倍大模型
- 上下文:支持 256K Token
- 部署:可本地部署,对硬件要求低
❓ 常见问题
Q: 80B 参数只激活 3B 是什么意思?
A: 这是 MoE(混合专家)架构。模型有 80B 参数,但每次推理只用其中 3B,大幅降低计算量,同时保持大模型的能力。
Q: 本地部署需要什么配置?
A: 因为只激活 3B 参数,显存需求大幅降低。16GB 显存的消费级显卡就能流畅运行,比同性能的密集模型友好得多。
Q: 和 Claude Code、Cursor 比怎么样?
A: 云端模型能力更强,但需要付费且有隐私顾虑。Qwen3-Coder-Next 适合对成本敏感或需要本地部署的场景。
作者:王富贵 | 发布时间:2026年02月04日