上一期我们更新了如何本地安装Ollama与本地下载开源语言大模型,但是在终端对话却很繁琐,不要紧,我们部署Ollama WebUI则可以实现本地浏览器与开源语言大模型对话。
安装Node.js
我们在部署Ollama WebUI需要先安装Node.js,直接打开Node.js官网下载安装。
安装成功后用指令node -v查询是否安装成功以及版本号。
部署Ollama WebUI
安装成功Node.js和Git后直接拉取Ollama WebUI代码。
git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui
拉取成功后进入使用指令cd ollama-webui进入目录,设置加速镜像。
npm config set registry http://mirrors.cloud.tencent.com/npm/
用指令npm install安装依赖,安装成功Ollama WebUI就部署成功咯~
启用Ollama WebUI
我们用指令npm run dev启用Ollama WebUI,可以看到访问地址,复制地址在浏览器打开。
可以选择本地安装的开源语言大模型进行对话咯~