美烦资源网

专注技术文章分享,涵盖编程教程、IT 资源与前沿资讯

2020款M1 MacBook Pro本地部署DeepSeek R1模型,完美运行14b模型

本人的笔记本是M1,16G版本的MacBook Pro,已经很多个年头了,但性能依旧强悍。这次看到DeepSeek大模型开源后,也是手痒痒,本地部署一套玩一玩。亲测16G内存,也可以流畅运行14b版本模型。

下面把部署过程列举出来,有需要的小伙伴可以一起尝试下,还是很简单的。

一,DeepSeek R1模型本地安装

1.下载Ollama,到Ollama官网下载对应操作系统的软件包。我这里下载的macos版本。

2.下载完成后,解压这个zip包。

3.苹果电脑直接把这个安装文件拖动到应用程序即可完成安装。windows的电脑需要双击运行。

4.根据自己电脑性能,下载对应的模型。我这里先下载7b版本(后面下载了14b也可以很流畅运行)。

5.命令行输入ollama run deepseek-r1:7b

6.本地没有模型时,会自动下载该模型,下载完成后success,并自动运行。此时就可以进行对话了。那么这时候是命令行的交互,如果需要达到ChatGpt那种交互效果,可以通过OpenWebUI来实现。

二,使用open-webui,脱离命令行对话

1.下载安装docker容器管理工具docker desktop。

2.到open webui官网,下载open-webui容器镜像。

3.使用下面的命令下载。

4.下载完成后,在docker工具中会看到这个镜像文件,命令行也可以看到镜像文件。

5.再次执行docker命令,运行该容器。

6.可以看到这个容器已经运行。

7.在本地浏览器中访问这个地址,就可以登录open webui。

8.设置自己的管理员账号

9.open webui会自动识别本地已安装的模型,这里能看到已安装的deepseek-r1:7b模型。直接进行对话即可。

到这里本地可视化模型配置就全部完成了。是不是很简单。

三,本地尝试部署14b模型

1.本地又下载一个14b模型

2.14b比7b大了将近一倍

3.下载完成后,open-webui就可以看到本地已安装的两个模型。使用哪个随时切换即可。

4.14b运行起来还是很流畅的。

5.最后附上M1 16G MacBook Pro运行14b内存使用情况,16G内存基本刚好被打满。

如果是32G以上内存,运行24b模型肯定是更完美的。

本文由头条@挨踢程序员原创,欢迎关注

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言