DC娱乐网

巴掌大小,智商爆表!阿里四款“迷你”模型开源

当全球AI巨头还在比拼谁家的模型参数更多、规模更大时,阿里突然亮出了一手“反向操作”。3月2日晚,阿里巴巴旗下千问团队一

当全球AI巨头还在比拼谁家的模型参数更多、规模更大时,阿里突然亮出了一手“反向操作”。

3月2日晚,阿里巴巴旗下千问团队一口气开源了四款Qwen3.5小尺寸模型

从最小的0.8B到最大的9B,全部“巴掌大小”,却个个身怀绝技。发布后不久,一向毒舌的埃隆·马斯克火速在社交媒体上点赞,称其拥有“令人印象深刻的智能密度”。

这四款模型可谓是“术业有专攻”。Qwen3.5-0.8B和2B主打“极致轻量”,推理速度极快,专为手机、智能眼镜、IoT设备等端侧场景设计,让AI无需联网也能跑在用户口袋里。Qwen3.5-4B则被定位为“轻量级智能体的强劲基座”,在视觉智能体评测(ScreenSpot Pro)中,它的表现与尺寸大近8倍的Qwen3-VL-30B-A3B持平,这意味着它有望像真人一样自主操作手机和电脑。而Qwen3.5-9B虽是紧凑尺寸,却上演了“越级打怪”的戏码,在涵盖博士级别推理(GPQA)的权威评测中,其得分超越了参数规模大10倍以上的OpenAI开源模型gpt-oss-120B。

为什么“小”反而成了亮点?这背后是技术路线的深刻变革。

传统的模型扩大规模追求“蛮力”,而千问3.5小模型通过混合架构创新,在极小参数下实现了原生多模态能力。有开发者实测后发现,仅凭一台配备了M4芯片的普通笔记本电脑,甚至是在浏览器里,就能流畅运行这些模型。正如一位开发者所言:“这简直是凭一己之力,把顶级模型的智能装进了每个人的电脑,而且免费。”

此次开源填补了千问3.5家族在端侧部署的空白,形成了从0.8B到397B的完整产品矩阵。所有模型均采用Apache 2.0协议,这意味着企业可以免费商用、随意修改,无需担心“卡脖子”或高昂的API调用费。

评析:从“大炼参数”到“端侧觉醒”

千问此次连发四款小模型,看似是在追逐“迷你”潮流,实则掐准了AI落地的下一个命门——端侧智能。过去两年,业界沉迷于参数竞赛,但万亿大模型因成本高、延迟长、数据隐私等问题,难以真正走进日常生活。而千问3.5小模型的出现,证明了“智能”不等于“重量”。当0.8B模型能在手机上离线运行,当4B模型能像大脑一样控制手机操作,AI才算真正从云端飞入了寻常百姓家。银河证券研报指出,硬件是AI应用落地最确定的受益方向。阿里这步棋,正是将千问打造成“一脑多端”的AI助手,为即将爆发的AI硬件浪潮备好了最核心的“芯”。与其在红海里比拼谁更大,不如在蓝海里证明谁更“灵”。这一次,阿里显然选对了赛道。