DeepSeek团队最新发布的 DeepSeek-R1 模型在 GitHub 上迅速获得了超过4000个星标,引起了广泛关注。

这款模型不仅性能卓越,而且开源且支持商业使用,为AI开发者提供了新的选择。本文将详细介绍如何在本地环境中部署DeepSeek-R1模型。

一、准备工作

使用 Ollama 进行本地部署。

Ollama是一个轻量级的工具,可以帮助你在本地快速部署和运行大语言模型。

要安装Ollama,前往Ollama官网 https://www.ollama.com/ 下载适用于你操作系统的安装程序,并按照提示完成安装。

当前最轻量级的是1.5b,只要 1.1G 的空间就可以安装,不同量级所需要的空间不同,可以根据自己机器配置下拉选择:

二、正式安装

使用 Ollama 作为本地运行 DeepSeek-R1 的主干。

首先使用终端(macOS/Linux)安装 Ollama:

1
curl -fsSL https://ollama.com/install.sh | sh

然后通过 Ollama 下载 DeepSeek-R1。选择适合你机器的提炼模型。deepseek-r1:671b 具有完整的 R1 功能,但是对服务器的要求自然也高。

1
2
3
4
5
6
7
8
# Default 7B model (4.7GB - ideal for consumer GPUs)
ollama run deepseek-r1

# Larger 70B model (requires 24GB+ VRAM)
ollama run deepseek-r1:70b

# Actual DeepSeek-R1 (requires 336GB+ VRAM for 4-bit quantization)
ollama run deepseek-r1:671b

设置 Open Web UI(私有接口)。确保你的机器上安装了 docker,然后通过在终端上运行来安装 Open Web UI:

1
2
3
4
5
6
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main

访问 http://localhost:3000 并选择 deepseek-r1:latest。所有数据都保留在你的机器上,没有云跟踪或数据泄露。