核心数据
Mistral Small 3.1 在文本、多模态、多语言、长上下文四个维度上,全面超越了同级别的 Gemma 3(27B)、GPT-4o Mini 和 Claude 3.5 Haiku。这是第一个在所有这些维度上同时超过主流小型商业模型的开源模型。
几个关键指标:
- 参数量:24B
- 上下文窗口:128k tokens
- 推理速度:150 tokens/s
- 许可证:Apache 2.0(可商用,无限制)
为什么独立开发者该关注
这个模型能跑在单张 RTX 4090 或 32GB 内存的 Mac 上。这意味着你不需要云服务,不需要 API 费用,本地就能跑一个相当强的多模态模型。
几个实际场景:
- 本地 AI Agent 的大脑:支持 function calling,延迟低,适合做自动化工作流的核心推理引擎
- 文档和图像理解:多模态能力意味着它能处理图片输入——文档验证、图像分析、视觉质检这些场景都能覆盖
- 垂直领域微调:同时放出了 Base 和 Instruct 两个版本。拿 Base 版本做 fine-tuning,可以训练出特定领域的专家模型,比如法律、医疗、技术支持
- 多语言支持:对做面向全球用户产品的独立开发者来说,不用额外处理多语言问题
部署方式
模型权重已经放在 HuggingFace 上,分两个版本:
Mistral-Small-3.1-24B-Base-2503(基座模型,适合微调)Mistral-Small-3.1-24B-Instruct-2503(指令模型,开箱即用)
API 方面可以通过 Mistral 的 La Plateforme 和 Google Cloud Vertex AI 直接调用,后续还会上 NVIDIA NIM 和 Azure AI Foundry。
社区生态已经跑起来了
值得一提的是,Nous Research 基于前代 Mistral Small 3 已经做出了 DeepHermes 24B 这样的推理增强模型。Small 3.1 的基座模型更强,社区在这个基础上还能玩出什么花样值得期待。
对于正在搭建 AI Agent 或自动化工作流的开发者,这个模型值得花半天时间跑一下。Apache 2.0 协议意味着你可以直接嵌入商业产品,没有任何许可证上的后顾之忧。本地部署 + function calling + 多模态,基本上是一个完整的 Agent 基础设施了。