本人的笔记本是M1,16G版本的MacBook Pro,已经很多个年头了,但性能依旧强悍。这次看到DeepSeek大模型开源后,也是手痒痒,本地部署一套玩一玩。亲测16G内存,也可以流畅运行14b版本模型。
下面把部署过程列举出来,有需要的小伙伴可以一起尝试下,还是很简单的。
一,DeepSeek R1模型本地安装
1.下载Ollama,到Ollama官网下载对应操作系统的软件包。我这里下载的macos版本。
2.下载完成后,解压这个zip包。
3.苹果电脑直接把这个安装文件拖动到应用程序即可完成安装。windows的电脑需要双击运行。
4.根据自己电脑性能,下载对应的模型。我这里先下载7b版本(后面下载了14b也可以很流畅运行)。
5.命令行输入ollama run deepseek-r1:7b
6.本地没有模型时,会自动下载该模型,下载完成后success,并自动运行。此时就可以进行对话了。那么这时候是命令行的交互,如果需要达到ChatGpt那种交互效果,可以通过OpenWebUI来实现。
二,使用open-webui,脱离命令行对话
1.下载安装docker容器管理工具docker desktop。
2.到open webui官网,下载open-webui容器镜像。
3.使用下面的命令下载。
4.下载完成后,在docker工具中会看到这个镜像文件,命令行也可以看到镜像文件。
5.再次执行docker命令,运行该容器。
6.可以看到这个容器已经运行。
7.在本地浏览器中访问这个地址,就可以登录open webui。
8.设置自己的管理员账号
9.open webui会自动识别本地已安装的模型,这里能看到已安装的deepseek-r1:7b模型。直接进行对话即可。
到这里本地可视化模型配置就全部完成了。是不是很简单。
三,本地尝试部署14b模型
1.本地又下载一个14b模型
2.14b比7b大了将近一倍
3.下载完成后,open-webui就可以看到本地已安装的两个模型。使用哪个随时切换即可。
4.14b运行起来还是很流畅的。
5.最后附上M1 16G MacBook Pro运行14b内存使用情况,16G内存基本刚好被打满。
如果是32G以上内存,运行24b模型肯定是更完美的。
本文由头条@挨踢程序员原创,欢迎关注