法国 AI 实验室 Mistral 将于 2025 年发布第一个模型,他们将 Mistral Small 3 描述为“在 Apache 2.0 许可证下发布的延迟优化的 24B 参数模型”。
更值得注意的是,他们声称:
Mistral Small 3 与 Llama 3.3 70B 或 Qwen 32B 等较大型号具有竞争力,并且是 GPT4o-mini 等不透明专有型号的出色开放替代品。 Mistral Small 3 与 Llama 3.3 70B 指令相当,同时在相同硬件上速度快了 3 倍以上。
Llama 3.3 70B 和 Qwen 32B 是我最喜欢在笔记本电脑上运行的两个模型 – 约 20GB 的大小是内存使用和模型实用性之间的一个很好的权衡。看到新进入该重量级别的选手真是令人兴奋。
许可证很重要:以前的 Mistral Small 型号使用他们的 Mistral Research 许可证,该许可证禁止商业部署,除非您与他们协商商业许可证。他们似乎正在远离这一点,至少对于他们的核心模型来说:
随着我们逐步放弃 MRL 许可的模型,我们重申了对通用模型使用 Apache 2.0 许可证的承诺。与 Mistral Small 3 一样,模型权重将可以在本地下载和部署,并且可以以任何容量免费修改和使用。 […] 需要专门功能(提高速度和上下文、特定领域知识、特定于任务的模型(例如代码完成))的企业和开发人员可以依靠其他商业模型来补充我们为社区所做的贡献。
尽管被称为 Mistral Small 3,但这似乎是该标签下模型的第四个版本。 Mistral API 将此称为mistral-small-2501
– 之前的型号 ID 为mistral-small-2312
、 mistral-small-2402
和mistral-small-2409
。
我更新了 llm-mistral 插件,以便直接与 Mistral 的La Plateforme API 对话:
llm install -U llm-mistral llm keys set mistral # Paste key here llm -m mistral/mistral-small-latest "tell me a joke about a badger and a puffin"
当然,这里有一个轻松的笑话给你听:
獾为什么要带一只海雀来参加聚会?
因为他听说海雀举办了一场盛大的派对“海雀”!
(这是“puffins”这个词和“party people”这个词的一个游戏。)
Mistral 还确保新型号能够及时在 Ollama 上发布,以发布公告。
您可以像这样拉取模型(获取 14GB):
ollama run mistral-small:24b
然后llm-ollama插件会让你像这样提示:
llm install llm-ollama llm -m mistral-small:24b "say hi"
标签:开源、 mistral 、 llm 、 ollama 、 generative-ai 、 ai 、 llms
原文: https://simonwillison.net/2025/Jan/30/mistral-small-3/#atom-everything