测试了一下使用open-webui作为ollama的外壳,使用deepseek更方便,open webui支持多模态输入,这里附上中文说明文档,只是语音识别识别率不太高,安装有两种方式,docker和python,这里为了方便,我使用了python安装方式,
2025年03月14日
测试了一下使用open-webui作为ollama的外壳,使用deepseek更方便,open webui支持多模态输入,这里附上中文说明文档,只是语音识别识别率不太高,安装有两种方式,docker和python,这里为了方便,我使用了python安装方式,
2025年03月14日
以下是在Windows 10系统上本地部署DeepSeek的具体步骤,支持简单对话、联网搜索及Web对话界面:
2025年03月14日
本人的笔记本是M1,16G版本的MacBook Pro,已经很多个年头了,但性能依旧强悍。这次看到DeepSeek大模型开源后,也是手痒痒,本地部署一套玩一玩。亲测16G内存,也可以流畅运行14b版本模型。
下面把部署过程列举出来,有需要的小伙伴可以一起尝试下,还是很简单的。
一,DeepSeek R1模型本地安装
2025年03月14日
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 WebUI,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容 API。
2025年03月14日
咱们之前呢装好了Ollama啊,那么也装好,部署了这个Ollama,上面,运行了咱们大语言模型,DeepSeek也装好了Docker啊,那么现在呢,我们看一看,怎么把open Web UI呢,放到咱们的Docker上面啊,来跑起来,这样呢咱们就有一个,交互式的界面了,网页界面了啊,好,那么怎么样去拉取这个呃,Open WebUI呢,这个时候,到我们的,
Open WebUI的官网上去啊,那么这个官网呢,嗯你可以看一下啊,就到咱们这官网上,那么在官网上面呢,我们可以找到啊,啊,那么Ollama装好了之后呢,我们使用怎么把Docker呃,利用Docker把咱们的这个呃,Open WebUI拿取镜像啊,来部署到咱们的Docker上面,那么这个指令呢,你可以直接复制这个指令,啊然后呢,复制完指令之后啊,当然,我这里指令也给大家看啊,那么用这个啊,他有些参数设置,
2025年03月14日
DeepSeek R1本地部署的步骤如下:
一、准备工作
1. 下载并安装Ollama:
o 访问Ollama官网(https://ollama.com),下载并安装适合自己操作系统的版本(Windows/macOS/Linux)。
o 安装完成后,打开Ollama软件,确保能够正常运行。
2025年03月14日
随着各种大语言模型的的流行和很多大语言模型的开源,尤其是DeepSeek开源之后,很多的用户都倾向于在本地部署一套大语言模型。
2025年03月14日
最近关于DeepSeek的文章可谓非常火热,不管是教你如何使用,还是借助DeepSeek帮你“逆天改命”的。其中,关于DeepSeek本地部署的也有不少。只不过,这类本地部署并不适合我们大多数人。
Powered By Z-BlogPHP 1.7.4