通过 OpenAI 兼容提供商在 Cline 中配置 Ollama 模型
将 Ollama 的本地托管模型集成到 Cline 中,将 Cline 的自主编码功能与本地 AI 模型的效率相结合,从而增强您的开发工作流程。本指南提供了有关配置 Cline 以通过 OpenAI 兼容的提供商设置利用 Ollama 模型的全面演练。
先决条件
在继续之前,请确保您具备以下条件:
-
Cline 安装Cline 是专为 Visual Studio Code (VSCode) 设计的自主编码代理。如果您尚未安装,请从Cline 官方网站下载并设置。
-
Ollama 安装并运行Ollama 是一个开源工具,允许用户在本地系统上运行大型语言模型 (LLM)。确保 Ollama 已安装并且服务器正在本地计算机上运行。默认情况下,Ollama 在
http://127.0.0.1:11434/v1
上运行。 (奥拉马网站)
分步配置
1.启动 VSCode 并访问 Cline 设置
- 打开 Visual Studio 代码。
- 导航到“扩展”面板并确保 Cline 已安装并处于活动状态。
- 单击 Cline 图标或使用命令面板(在 Mac 上为
Ctrl + Shift + P
或Cmd + Shift + P
)访问 Cline 的设置。
2. 配置 OpenAI 兼容提供程序
-
在 Cline 的设置中,找到API 提供商部分。
-
从下拉菜单中选择“OpenAI 兼容”。
-
输入以下详细信息:
Base URL: http://127.0.0.1:11434/v1 API Key: (any placeholder, as Ollama does not require verification)
3. 指定型号 ID
-
在同一设置面板中,指定您要使用的型号。
-
要列出 Ollama 设置中的可用模型,请在终端中运行以下命令:
ollama list
-
例如,要使用
deepseek-r1:8b
模型,请将模型 ID设置为:Model ID: deepseek-r1:8b
-
确保该模型可用并在您的 Ollama 设置中正确配置。 ( Ollama模型库)
4. 保存并测试配置
- 输入必要的详细信息后,保存您的设置。
- 在 Cline 中启动编码任务或查询,以验证它是否与 Ollama 模型正确连接。
- 如果配置正确,Cline 将使用指定的本地模型处理您的请求。
这种集成的好处
- 增强的性能:本地运行模型可减少延迟,从而加快开发任务期间的响应时间。
- 数据隐私:在本地处理数据可确保敏感信息保留在您的基础设施内,从而解决与基于云的解决方案相关的潜在安全问题。
- 成本效率:利用本地模型无需外部 API 调用,从而可能降低与第三方服务相关的成本。
结论
通过 OpenAI 兼容的提供程序设置,将 Cline 配置为与 Ollama 的本地托管模型配合使用,您可以创建一个强大且高效的开发环境。这种集成利用了这两种工具的优势,提供了无缝且响应迅速的编码助手体验。
有关可用模型及其功能的更多信息,请访问Ollama 模型库。
原文: https://atlassc.net/2025/02/12/configuring-ollama-models-in-cline-via-openai-compatible-provider