今天除夕,阿里把Qwen 3.5发了。选这天,因为对产品有绝对信心。 这款模型强在哪?Qwen 3.5-Plus总参数3970亿,激活只用170亿。好比公司3970名专家,每次只叫醒17个最懂行的干活,结果比对手1万人干得还漂亮。 性能超万亿参数的Qwen3-Max,推理速度提升19倍,部署成本降60%。 凭啥?底层动了四刀:混合注意力机制。重要的精读,次要的略读;极致稀疏MoE,只激活懂行的专家;多Token预测,想好一口气说,响应翻倍。 门控机制。给注意力装“智能水龙头”,该放大的放大,该过滤的过滤。这技术拿了NeurIPS最佳论文。 几刀下来,MMLU-Pro得分87.8超GPT-5.2,GPQA 88.4超Claude 4.5,Agent能力全面超越Gemini 3 Pro。过去行业信奉“大力出奇迹”,参数堆得高但成本吓人,中小企业用不起。千问3.5换了条路,用技术创新替代参数堆砌。 那它能帮我们做什么? 答案是原生多模态。很多模型是语言模型外挂视觉模块,甚至后台偷偷切换模型。千问3.5从预训练第一天就文本视觉一起学,视觉语言深度融合,看到图就懂语义,读到文字能脑补画面。这叫“原生”。 打通后,它能理解2小时视频,手绘草图直接转代码,自动修复UI bug。 还能动手办事,自主操作手机电脑,跨应用完成复杂任务。春节期间,AI购物Agent帮用户完成1.2亿笔订单,AI大规模真实办事,全球首次。 价格更狠,API每百万Token 0.8元,只有Gemini 3 Pro的1/18。很多人以为补贴,错了。成本是设计出来的:架构省算力(激活少),自研真武芯片针对MoE优化,云基础设施协同(FP8/FP32混合精度,训练快10%)。模型和云是“一家人”,调度效率高。 市场数据佐证,千问中国企业调用第一,阿里云份额35.8%超二到四名总和。模型、芯片、云形成正循环。 但最狠的是开源。 性能这么强却直接开源,图啥?建生态。现在千问开源超400个模型,衍生超20万,下载破10亿次,单月下载超DeepSeek、Meta等六家总和。 李飞飞团队、爱彼迎都在用。这就是AI时代的Linux/安卓,让全球开发者帮你迭代,衍生模型越多,生态越厚。最后这些应用都跑在阿里云上,形成闭环。 大模型的“吨位战”结束了。 往后比的,是谁能让更多人用得起、用得上、用得顺手;参数不重要,效率才重要;跑分不重要,生态才重要。2026刚开年,阿里就把牌桌掀了。 开发者现在就能上手:魔搭社区、HuggingFace下载模型,或阿里云百炼调API。