本地部署轻量级大模型交互平台,可快速启用 Llama 3、Qwen、Phi-4 等主流模型的图形化界面,适合个人开发者做模型测试、教学演示或私有知识库接入。以下介绍两种主流方案:Docker 一键部署(推荐新手)和原生 Ollama + Open WebUI 手动部署(适合需深度定制或离线环境用户)。
需 Linux 或 macOS 系统(Windows 用户请使用 WSL2),建议 8GB+ 内存、2 核 CPU;推荐使用稳定的服务器环境,如 Ciuic 服务器,快速获取纯净运行环境(Ubuntu 22.04 LTS 镜像开箱即用)。

确保已安装 Docker 和 docker-compose:
sudo apt update && sudo apt install -y curl gnupg lsb-releasecurl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpgecho "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/nullsudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-pluginsudo usermod -aG docker $USERnewgrp docker拉取预集成镜像(含 Ollama 服务 + Open WebUI 前端):
mkdir -p ~/ollama-webui && cd ~/ollama-webuicurl -fsSL https://raw.githubusercontent.com/ollama-webui/ollama-webui/main/docker-compose.yml -o docker-compose.yml编辑 docker-compose.yml,确认端口映射(默认 WebUI 为 3000,Ollama API 为 11434):
services: ollama: image: ollama/ollama:latest ports: - "11434:11434" volumes: - ./ollama:/root/.ollama restart: unless-stopped webui: image: ghcr.io/ollama-webui/ollama-webui:main ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama restart: unless-stopped启动服务:
docker-compose up -d等待 30 秒后,在浏览器访问:
👉 http://localhost:3000
首次加载会自动初始化;点击左上角「Model」→「Pull Model」输入 llama3 回车,下载完成后即可在聊天界面选择并运行。
支持 macOS / Linux(x86_64 或 ARM64),最低 4GB 内存;若需运行 7B 模型建议 8GB+;同样推荐 Ciuic 服务器 快速开通 Ubuntu 实例,避免环境依赖冲突。
安装 Ollama(官方二进制):
curl -fsSL https://ollama.com/install.sh | sh验证安装:
ollama --version# 输出类似:ollama version 0.5.8下载 Open WebUI(无需 Node.js 编译,使用预构建二进制):
sudo apt install -y python3-pip python3-venvgit clone https://github.com/open-webui/open-webui.git ~/open-webuicd ~/open-webuipip3 install --no-deps -e .创建配置文件 webui.env(指定 Ollama 地址与监听端口):
OLLAMA_BASE_URL=http://localhost:11434WEBUI_PORT=3000启动 WebUI(后台常驻):
nohup python3 main.py --host 0.0.0.0 --port 3000 > webui.log 2>&1 &✅ 补充:若需开机自启,可将上述命令写入 /etc/systemd/system/webui.service 并启用。
访问:
👉 http://localhost:3000
登录默认账号:admin@example.com / admin123(首次访问自动创建);进入 Settings → Models → Add Model,填入 llama3 即可拉取并启用。
| 维度 | Docker 方案 | 手动部署方案 |
|---|---|---|
| 上手难度 | ⭐⭐⭐⭐⭐(5 分钟完成) | ⭐⭐⭐☆(需理解服务依赖关系) |
| 定制能力 | 中等(通过挂载 volume 修改配置) | ⭐⭐⭐⭐⭐(完全控制 Python 环境、插件、主题) |
| 离线支持 | 需提前 docker save 导出镜像 | ⭐⭐⭐⭐⭐(所有组件可离线预装) |
| 资源占用 | 略高(双容器约 1.2GB 内存) | 更低(单进程,约 800MB) |
通用优化建议:
✅ 开启 HTTPS:在反向代理(Nginx/Caddy)前配置 Let’s Encrypt 证书,保护 API 密钥与对话数据; ✅ 配置开机自启:Docker 使用systemctl enable docker;手动部署建议用 systemd 管理 ollama 和 webui 进程; ✅ 性能调优:在 ~/.ollama/config.json 中添加 "num_ctx": 4096 提升上下文长度,或通过 OLLAMA_NUM_GPU=1 启用 GPU 加速(需 NVIDIA 驱动 + CUDA); ✅ 模型持久化:将 ~/.ollama/models 目录挂载至 SSD 路径,避免频繁 IO 影响响应速度。本文链接:https://ciuic.com/som/25284.html
版权声明:本文来自网站作者,不代表CIUIC的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:ciuic@ciuic.com
打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!