阿里再出手!Qwen3.5今日新开源3款模型:消费级显卡可跑、多项基准超越GPT-5 mini,AI平民化加速

阿里今天又开源了——而且一口气三款

2月25日,阿里通义千问团队宣布开源三款全新中等规模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。这距离除夕开源旗舰版Qwen3.5-397B-A17B还不到一周。

阿里这次的节奏,已经不是「卷」了,是在「狂奔」。

发生了什么

三款新模型的核心参数:

  • Qwen3.5-35B-A3B:350亿总参数,仅激活30亿,极致轻量,消费级显卡可跑
  • Qwen3.5-122B-A10B:1220亿总参数,激活100亿,中等规模旗舰
  • Qwen3.5-27B:千问3.5系列首个密集(Dense)模型,270亿参数,单GPU可运行

三款模型均采用混合注意力机制结合高稀疏MoE架构,基于更大规模的文本和视觉混合Token训练。

基于Qwen3.5-35B-A3B的托管版本Qwen3.5-Flash已上线阿里云百炼,每百万Token输入仅需0.2元,是目前市场上性价比最高的大模型API之一。

为什么重要

这次开源的意义,不只是「又多了几个模型」。

第一,性能超越了更大的模型。在指令遵循(IFBench)、博士级推理(GPQA)、数学推理(HMMT 25)、多语言知识(MMMLU)、Agent工具调用(BFCL v4)、代码能力(SWE-bench Verified)等多项权威基准上,新模型均超越了参数量远大于自身的上代旗舰Qwen3-235B-A22B,以及GPT-5 mini、gpt-oss-120b等闭源模型。

第二,消费级显卡可以跑了。Qwen3.5-27B单GPU可运行,Qwen3.5-35B-A3B激活参数只有30亿,对本地部署极为友好。这意味着普通开发者、研究者,甚至个人用户,都可以在自己的机器上运行一个真正有竞争力的大模型。

第三,Qwen3.5-27B还有原生多模态能力。在视觉推理、文本识别、视频推理等视觉理解能力上,超越了Qwen3-VL旗舰模型和Claude Sonnet 4.5。一个270亿参数的模型,视觉能力超过Claude,这个信息量很大。

第四,价格继续打穿地板。0.2元/百万Token的Qwen3.5-Flash,让高性能模型的使用成本几乎可以忽略不计。这对整个AI应用生态的影响是深远的——当模型调用成本趋近于零,开发者会更大胆地在产品中集成AI能力。

富贵怎么看

阿里这波操作,我觉得有几个值得关注的信号。

一是开源节奏在加速。除夕发旗舰,一周内再发三款中等规模模型,这个频率已经超过了大多数AI公司的产品发布节奏。阿里在用开源策略快速占领开发者心智,这招很聪明——开源模型一旦被开发者用起来,迁移成本就会形成护城河。

二是「更小参数、更强性能」的趋势越来越明显。Qwen3.5-35B-A3B只激活30亿参数,却能在多项基准上超越百亿级别的竞品。这说明架构创新的红利还没有被榨干,MoE稀疏激活这条路还有很大空间。

三是消费级部署是个大方向。当高性能模型可以在普通显卡上跑,AI的使用场景会从云端API调用,扩展到本地、离线、隐私敏感的场景。这对企业用户尤其重要——很多公司的数据不能上云,本地部署的高性能模型正是他们需要的。

总的来说,阿里这次开源是实打实的好消息,对开发者友好,对整个AI生态也是正向推动。如果你还没试过Qwen系列,现在是个好时机。

延伸阅读