Mistral AI开源Mistral Small 4:128专家模块、三合一能力,Apache 2.0免费商用 法国AI独角兽Mistral AI于2026年3月17日正式宣布开源Mistral Small 4混合大模型,这是该公司在开源AI领域的重要新里程碑。该模型将通用指令(Instruct)、深度推理(Reasoning)和代码生成(Devstral)三大能力整合为一个统一模型,并采用对商业用户极为友好的Apache 2.0许可协议,允许完全免费用于商业场景。 技术架构: Mistral Small 4拥有1190亿(约119B)参数,但采用混合专家(MoE)架构,每次查询仅激活其中约60亿参数,大幅降低了推理时的计算消耗。架构内置128个专家模块,每次推理仅激活4个最相关的专家,确保在保持高性能的同时兼顾推理效率。用户还可以灵活控制模型在"快速响应"与"深度思考"之间的平衡,满足不同使用场景的需求。 性能表现: 与Mistral Small 3相比,Small 4的推理速度提升约40%,每秒可处理的查询量提升3倍,对于需要低延迟、高并发的企业AI应用场景尤为友好。在代码生成方面,其前身Devstral 2已展现出在主流编码基准上接近甚至超越部分闭源模型的能力,Small 4在此基础上进一步融合了推理和通用指令能力。 开放获取: 模型已在Hugging Face、Mistral官方API及英伟达平台上正式上线,开发者可以即时下载或通过API调用,企业可直接私有化部署,无需支付任何许可费用。 战略意义: Mistral Small 4的发布体现了欧洲AI创业公司在开源领域的独特战略定位——通过将高性能与完全开放相结合,与OpenAI、Anthropic等闭源生态形成差异化竞争。随着法国政府持续加大对本土AI企业的支持,Mistral的开源路线也被视为欧洲AI主权战略的重要组成部分,为减少对美国AI生态系统的依赖提供了有力工具。 来源:The Decoder、TechCrunch、科创板日报