如何使用 Ollama 在本地设置和运行 DeepSeek R1
概述
了解如何使用 Ollama 在本地安装、设置和运行 DeepSeek-R1 并构建一个简单的 RAG 应用程序
在本教程中,我将逐步介绍如何在本地运行 DeepSeek-R1 以及如何使用 Ollama 进行设置。我们还将探索使用 R1 模型、LangChain 和 Gradio 构建一个简单的 RAG 应用程序,该应用程序可在您的笔记本电脑上运行
为什么要在本地运行 DeepSeek-R1?
在本地运行 DeepSeek-R1 可以让您完全控制模型执行,而无需依赖外部服务器。以下是在本地运行 DeepSeek-R1 的一些优势:
- 隐私和安全:没有数据离开您的系统。
- 不间断访问:避免速率限制、停机或服务中断。
- 性能:通过本地推理获得更快的响应,避免 API 延迟。
- 自定义:修改参数、微调提示并将模型集成到本地应用程序中。
- 成本效益:通过在本地运行模型来消除 API 费用。
- 离线可用性:下载模型后,在没有 Internet 连接的情况下工作。
使用 Ollama 在本地设置 DeepSeek-R1
Ollama 通过无缝处理模型下载、量化和执行来简化本地运行LLMs。
第 1 步:安装 Ollama
首先,从官网下载并安装 Ollama
下载完成后,像安装任何其他应用程序一样安装 Ollama 应用程序。
第 2 步:下载并运行 DeepSeek-R1
让我们测试设置并下载我们的模型。启动终端并键入以下命令。
Ollama 提供一系列 DeepSeek R1 模型,从 1.5B 参数到完整的 671B 参数模型。671B 模型是原始的 DeepSeek-R1,而较小的模型是基于 Qwen 和 Llama 架构的提炼版本。如果您的硬件不支持 671B 型号,您可以使用以下命令并将下面的 X
替换为您想要的参数大小(1.5b、7b、8b、14b、32b、70b、671b),轻松运行较小的版本:
ollama run deepseek-r1:Xb
凭借这种灵活性,即使您没有超级计算机,也可以使用 DeepSeek-R1 的功能。
第 3 步:在后台运行 DeepSeek-R1
要持续运行 DeepSeek-R1 并通过 API 提供它,请启动 Ollama 服务器:
ollama serve
这将使模型可用于与其他应用程序集成。
在本地使用 DeepSeek-R1
第 1 步:通过 CLI 运行推理
下载模型后,您可以直接在终端中与 DeepSeek-R1 进行交互。
第 2 步:通过 API 访问 DeepSeek-R1
要将 DeepSeek-R1 集成到应用程序中,请使用 curl
的 Ollama API
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1",
"messages": [{ "role": "user", "content": "Solve: 25 * 25" }],
"stream": false
}’
curl
是 Linux 原生的命令行工具,但也适用于 macOS。它允许用户直接从终端发出 HTTP 请求,使其成为与 API 交互的绝佳工具
第 3 步:通过 Python 访问 DeepSeek-R1
我们可以在选择的任何集成开发环境 (IDE) 中运行 Ollama。您可以使用以下代码安装 Ollama Python 包:
安装 Ollama 后,使用以下脚本与模型交互:
import ollama
response = ollama.chat(
model="deepseek-r1",
messages=[
{"role": "user", "content": "Explain Newton's second law of motion"},
],
)
print(response["message"]["content"])
ollama.chat()
函数获取模型名称和用户提示,并将其作为对话交换进行处理。然后,该脚本提取并打印模型的响应
系列阅读
如何使用DeepSeek-R1处理PDF
什么是堆外内存-CSDN博客