介绍
大型语言模型 (LLM) 正在彻底改变我们与计算机交互的方式,它们在编码中的应用尤其令人兴奋。 DeepSeek R1 以其与其他强大模型类似的强大推理能力而闻名,提供了一个引人注目的选择。更好的是,DeepSeek R1 的精炼版本(例如 7B、8B、32B 和 70B 参数模型)可以使用 Ollama 在本地运行。将此与开源编程代理 VS Code 扩展 Cline 结合起来,您就拥有了强大的本地编码设置。这篇文章将向您展示如何操作。
DeepSeek R1 和 Ollama:本地动力源
DeepSeek R1 是一个强大的法学硕士,具有令人印象深刻的推理能力。虽然最大的版本需要大量资源,但精简版本旨在在消费类硬件上高效运行。 Ollama 简化了在本地运行这些模型的过程。它提供了一种简化的方式来下载、管理和服务 LLM,包括 DeepSeek R1。这意味着您可以拥有直接在您的计算机上运行的强大编码助手,而无需依赖云服务。
首先,您需要:
- 安装 Ollama:按照 Ollama 网站上适合您的操作系统的说明进行操作。
- 下载 DeepSeek R1:前往Ollama 上的 DeepSeek R1 型号页面,下载您想要在本地计算机上运行的版本(例如 7B、8B、32B 或 70B)。
- 使用 Ollama 运行 DeepSeek R1:使用
ollama run
命令启动模型。例如:
ollama run deepseek-r1
Cline:您当地的编码代理
Cline是一个开源 VS Code 扩展,充当编程代理。它可以规划和执行复杂的编程任务,显着提高开发人员的工作效率。 Cline 可以利用法学硕士来理解自然语言指令并将其翻译成代码。重要的是,Cline 可以配置为使用本地 LLM,而不是Ollama 的 OpenAI API 兼容性。
连接克莱恩和奥拉马
Cline 可以使用 OpenAI 兼容连接器与 Ollama 进行通信。 Ollama 在http://127.0.0.1:11434/v1
公开了 OpenAI 兼容 API,Cline 可以使用它。在 Cline 的设置中,您需要将其配置为指向该地址。这告诉 Cline 通过 Ollama 使用本地运行的 DeepSeek R1 实例。
以下是步骤的概要:
- 安装 Cline:从VS Code 市场安装 Cline 扩展。
- 配置 Cline:在 VS Code 中打开 Cline 的设置。
- 选择提供商:在 Cline 的设置中选择
OpenAI Compatible
作为 API 提供商。 - 设置 API 端点:将 API
Base URL
设置更改为http://127.0.0.1:11434/v1
。这会将 Cline 定向到您本地的 Ollama 服务器。 - (可选)API 密钥:您可能不需要本地 Ollama 的 API 密钥,但如果 Cline 需要 API 密钥,您通常可以使用占位符,例如
ollama_key
或任何其他短字符串。奥拉马不会验证这一点。
本地的力量
在 Ollama 本地运行 DeepSeek R1 并将其与 Cline 一起使用具有以下几个优点:
- 隐私:您的代码和提示保留在您的本地计算机上。
- 速度:本地处理比依赖远程服务器更快,尤其是对于复杂的任务。
- 经济高效:您可以避免与使用基于云的 LLM API 相关的成本。
- 离线访问:即使没有互联网连接,您也可以工作。
结论
通过结合 DeepSeek R1、Ollama 和 Cline 的强大功能,您可以创建真正本地且强大的编码环境。这种设置允许您利用法学硕士的最新进展来提供编码帮助,同时保持隐私、速度和成本效益。随着法学硕士的不断发展,像这样的本地解决方案对于开发人员来说将变得越来越重要。尝试不同的 DeepSeek R1 模型大小,以找到最适合您的性能和资源使用之间的平衡。从今天开始构建令人惊奇的东西!
原文: https://atlassc.net/2025/02/04/cline-with-local-deepseek