Mistral Small 3.1(以前的版本)现在可以通过Ollama获得,它提供了一种在 Mac(和其他平台,尽管我自己还没有尝试过)上运行这种多模式(视觉)模型的简单方法。
我必须将 Ollama 升级到最新版本才能使其正常工作 – 在此之前我收到一条Error: unable to load model
消息。可以通过 Ollama macOS 系统托盘图标进行升级。
我通过运行以下命令获取了 15GB 模型:
ollama pull mistral-small3.1
然后使用llm-ollama通过它运行提示,包括描述此图像的提示:
llm install llm-ollama llm -m mistral-small3.1 'describe this image' -a https://static.simonwillison.net/static/2025/Mpaboundrycdfw-1.png
这是输出。它很好,尽管不如我从稍大的 Qwen2.5-VL-32B 中得到的描述那么令人印象深刻。
我还在手写文本的扫描(私人)PDF 上进行了尝试,结果非常好,尽管它确实误读了其中一个手写数字。
标签:视觉 LLMS 、米斯特拉尔、 LLM 、 ollama 、生成式 AI 、 AI 、 LLMS 、本地 LLMS
原文: https://simonwillison.net/2025/Apr/8/mistral-small-31-on-ollama/#atom-everything