美烦资源网

专注技术文章分享,涵盖编程教程、IT 资源与前沿资讯

如何利用Ollama在本地浏览器与开源语言大模型对话?

上一期我们更新了如何本地安装Ollama与本地下载开源语言大模型,但是在终端对话却很繁琐,不要紧,我们部署Ollama WebUI则可以实现本地浏览器与开源语言大模型对话。

安装Node.js

我们在部署Ollama WebUI需要先安装Node.js,直接打开Node.js官网下载安装。

安装成功后用指令node -v查询是否安装成功以及版本号。

部署Ollama WebUI

安装成功Node.js和Git后直接拉取Ollama WebUI代码。

git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui

拉取成功后进入使用指令cd ollama-webui进入目录,设置加速镜像。

npm config set registry http://mirrors.cloud.tencent.com/npm/

用指令npm install安装依赖,安装成功Ollama WebUI就部署成功咯~

启用Ollama WebUI

我们用指令npm run dev启用Ollama WebUI,可以看到访问地址,复制地址在浏览器打开。

可以选择本地安装的开源语言大模型进行对话咯~

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言