Deepseek是一款强大的AI模型,本地部署可以带来诸多好处,如增强数据安全性、提高响应速度等。以下是Deepseek本地部署的详细步骤:
一、安装Ollama
Ollama是一个开源本地大模型运行工具,在本地部署Deepseek需要用到它。首先在浏览器搜索“ollama”,进入ollama官网。点击中间的“Download”,根据自己的电脑类型(苹果电脑选最左边蓝色框,Windows系统选最右边红色框)点击下载。下载后点击安装,最好安装在C盘,若安装在其它盘,需要重新配置环境变量。安装成功后桌面会出现ollama图标(羊驼图标)。
二、选择并下载Deepseek模型
在ollama官网点击右上角位置,在弹出界面点击“Models”选项,选择“deepseek-r1”。根据电脑性能选择不同参数的模型,参数越大性能越强,但对电脑配置要求也越高。例如,16G显存电脑运行14b参数模型需约11.5G显存,1.5b版本2G以下显存即可运行,甚至无需独立显卡,核显就行;32b参数则需32G显存。选择好后,复制对应命令,如“ollama run deepseek-r1:1.5b”。
三、安装模型
同时按下键盘上的Win和R键,弹出窗口输入“cmd”,点击确定打开命令行。在命令行里输入之前复制的命令,点击“Enter”键,模型会自动下载。
四、与模型对话
下载成功后,就可以与模型对话。若关闭电脑后再次打开ollama,点击图标可能没反应,因为点击图标只是启动了ollama,要和大模型聊天,需再次打开命令行,输入之前的下载命令(因已下载过,此次无需下载可直接聊天)。
五、安装Open-WebUI(可选)
Open-WebUI可让交互界面更好看,但有较多依赖项,安装易出问题,不熟悉电脑的朋友建议先不安装。若要安装,首先在浏览器输入“docker”并搜索,进入官网,根据电脑系统下载docker桌面版并安装运行,安装完成后需重新启动电脑。电脑重启后,浏览器搜索“Open-WebUI”,进入官网并复制红框中的命令,打开命令行输入该命令等待安装完成。安装完成后双击docker桌面图标,打开软件,点击红框端口运行Open-WebUI,初次访问需注册账号,之后在界面左上角选择模型即可开始对话。