专注技术文章分享,涵盖编程教程、IT 资源与前沿资讯
2025年03月14日
在本地设备上部署 Deepseek 方法,以减少对远程服务器的依赖
Windows 系统
- 安装 Ollama:访问Ollama 官网,下载 Windows 版本的安装包。下载完成后,双击安装包,按照安装向导的步骤进行操作完成安装。打开命令提示符,输入 “ollama --version”,若显示版本号则安装成功。
- 下载并安装 DeepSeek 模型:打开命令提示符,根据自身硬件配置和需求选择模型版本,如 “deepseek-r1:7b”,输入命令 “ollama run deepseek-r1:7b” 进行下载安装。安装完成后,输入 “ollama list” 命令,查看已安装的模型列表,确认 DeepSeek R1 模型是否成功安装。
- 配置 WebUI:下载并安装 Chatbox,打开 Chatbox,在设置中找到 “模型配置” 选项,选择 “本地模型”,并指定 Ollama 的运行地址 “http://localhost:11434”,选择已安装的 DeepSeek R1 模型版本,保存设置。
macOS 系统
- 安装 Ollama:前往Ollama 官网下载 Mac 版本的安装包,将下载的安装包拖动到 “应用程序” 文件夹中完成安装。打开终端,输入 “ollama --version” 验证是否安装成功。
- 下载并安装 DeepSeek 模型3:打开终端,根据需求输入下载命令,如 “ollama run deepseek-r1:1.5b”,等待模型下载和安装完成。可通过 “ollama list” 命令查看模型是否安装成功。
- 配置 WebUI:同 Windows 系统下的操作,访问 Chatbox 官网下载安装,在 Chatbox 中设置模型提供方为 “Ollama API”,API 域名设为 “http://localhost:11434”,选择对应的 DeepSeek 模型名称并保存。
Linux 系统
- 安装 Ollama3:访问Ollama 官网,找到适合 Linux 系统的安装包进行下载安装。安装完成后,打开终端,输入 “ollama --version” 检查安装情况。
- 下载并安装 DeepSeek 模型3:在终端中输入相应的下载命令,如 “ollama run deepseek-r1:32b” 来下载所需的 DeepSeek 模型版本。安装完成后,可通过 “ollama list” 查看模型是否安装成功。
- 配置 WebUI:若需使用 Chatbox,可从官网下载适用于 Linux 的版本进行安装和配置,设置与 Windows、macOS 系统类似,需指定 Ollama 的运行地址和对应的 DeepSeek 模型版本。
标签:webui官网