通过本教程,您将掌握基于 Docker Compose 的一键式 Open WebUI 部署方案,实现与 Ollama 等大模型服务的无缝对接。本配置已适配开发测试环境,包含数据持久化、自动重启等关键功能。
? docker-compose.yml 完整配置
version: '3.8'
services:
webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ./data:/app/backend/data # 持久化数据存储
environment:
- OLLAMA_API_BASE_URL=http://your-ollama-host:11434
- AUTH_DISABLED=true # 禁用登录验证(开发环境使用)
restart: unless-stopped
⚙️ 配置参数解析
| 参数 | 说明 | 推荐值 |
|---|---|---|
| ports | 端口映射规则 | 主机端口:容器端口 |
| volumes | 数据持久化路径 | 建议使用绝对路径如 /opt/webui/data |
| OLLAMA_API_BASE_URL | 模型服务地址 | 本地:http://localhost:11434 远程:http://x.x.x.x:11434 |
| AUTH_DISABLED | 身份验证开关 | 生产环境必须设为 false |
? 五步部署流程
⚠️ 安全注意事项
- 生产环境必须配置 HTTPS
- 建议设置
WEBUI_SECRET_KEY环境变量 - 禁用默认管理员账号密码
? 生产环境增强方案
?️ 常见问题排查表
| 现象 | 解决方案 |
|---|---|
| 端口 3000 被占用 | 修改 ports 为 "新端口:8080" |
| 数据卷权限错误 | 执行 chmod 755 ./data |
| 无法连接 Ollama | 检查防火墙设置和网络连通性 |
文章评论