Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种LLM运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,是一个强大的 AI 部署解决方案。
开源地址:https://github.com/open-webui/open-webui
一、官方安装建议
使用 Python 3.11 直接安装
pip install open-webui
启动服务:
open-webui serve
使用 Docker 安装
如果 Ollama 在宿主机上:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于其他服务器上:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
二、国内安装建议
使用镜像代理
拉取镜像如果很慢,可以修改镜像地址。
将 docker 命令中的 ghcr.io
换成 ghcr.nju.edu.cn
。
使用离线模式安装
在 docker 安装命令中,增加环境变量如下,以防止尝试联网下载模型。:
-e HF_HUB_OFFLINE=1
登录后白屏问题解决
首次注册管理员账号,并登录后,会有较长时间的白屏,并且以后每次都会出现。
原因是默认链接了 OpenAI API 导致的。
等待白屏结束后,进入 管理员面板 --> 设置 --> 外部连接 --> 关闭 OpenAI API
三、接入体验
成功连接 Ollama 服务后,会自动读取模型列表。
选择模型后,体验对话: