Mistral AI 发布了 Mistral Small 3.1,一个 24B 的多模态小模型,该模型在多个基准测试中胜过 Gemma 3 和 GPT-4o Mini 等模型,并具有 150 token / 秒的推理速度。该模型可以在单个 RTX 4090 或具有 32GB RAM 的 Mac 上运行,并采用 Apache 2.0 开源协议。Mistral Small 3.1 基于 Mistral Small 3 构建,具有更大的上下文窗口(128k),改进的文本生成能力和新增的视觉能力,特别是在图像理解方面表现出色。该模型旨在处理各种生成式 AI 任务,适用于企业级和消费级 AI 应用。它具有轻量级、快速响应能力和低延迟函数调用等特点,并可以针对特定领域进行微调。Mistral AI 发布了基础模型和指令检查点,以鼓励社区进一步定制模型。
多模态,性能超 GPT-4o Mini、Gemma 3,还能在单个 RTX 4090 上运行,这个小模型值得一试。





-
Mistral Small 3.1 Base:https://huggingface.co/mistralai/Mistral-Small-3.1-24B-Base-2503
-
Mistral Small 3.1 Instruct:https://huggingface.co/mistralai/Mistral-Small-3.1-24B-Instruct-2503
-
轻量级:可以在单个 RTX 4090 或具有 32GB RAM 的 Mac 上运行。这使其非常适合端侧使用情况。
-
快速响应能力:非常适合虚拟助手和其他需要快速、准确响应的应用程序。
-
低延迟函数调用:能够在自动化或智能体工作流中快速执行函数。
-
针对专业领域进行微调:Mistral Small 3.1 可以针对特定领域进行微调,打造精准的主题专家。这在法律咨询、医疗诊断和技术支持等领域尤其有用。
-
高级推理的基础:开放的 Mistral 模型已经被开发者用来构建出色的推理模型,比如 Nous Research 的 DeepHermes 24B 就是基于 Mistral Small 3 构建出来的。为了鼓励这种创新,Mistral AI 发布了 Mistral Small 3.1 的基础模型和指令检查点,以便社区进一步对模型进行下游定制。





