Junki
Junki
Published on 2025-02-19 / 66 Visits
0
0

Open WebUI(原 Ollama WebUI)安装体验,附国内安装建议

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种LLM运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,是一个强大的 AI 部署解决方案。

开源地址:https://github.com/open-webui/open-webui

一、官方安装建议

使用 Python 3.11 直接安装

pip install open-webui

启动服务:

open-webui serve

访问地址:http://localhost:8080

使用 Docker 安装

如果 Ollama 在宿主机上:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于其他服务器上:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

二、国内安装建议

使用镜像代理

拉取镜像如果很慢,可以修改镜像地址。

将 docker 命令中的 ghcr.io 换成 ghcr.nju.edu.cn

使用离线模式安装

在 docker 安装命令中,增加环境变量如下,以防止尝试联网下载模型。:

-e HF_HUB_OFFLINE=1

登录后白屏问题解决

首次注册管理员账号,并登录后,会有较长时间的白屏,并且以后每次都会出现。

原因是默认链接了 OpenAI API 导致的。

等待白屏结束后,进入 管理员面板 --> 设置 --> 外部连接 --> 关闭 OpenAI API

屏幕截图_19-2-2025_123638.jpeg

三、接入体验

成功连接 Ollama 服务后,会自动读取模型列表。

选择模型后,体验对话:

屏幕截图_19-2-2025_12366.jpeg


Comment