本地部署轻量级大模型交互平台,可快速启用 Llama 3、Qwen、Phi-4 等主流模型的图形化界面,适合个人开发者调试提示词、教学演示或离线AI实验。以下介绍两种主流方案:Docker 一键部署(推荐新手) 和 原生二进制+WebUI 手动部署(适合定制化需求),分别适配不同技术背景与使用场景。
需一台具备 x86_64 或 ARM64 架构的 Linux/macOS/Windows(WSL2)环境,最低 4GB 内存(运行 3B 模型)、10GB 可用磁盘空间。推荐使用稳定的服务器环境,如 Ciuic 服务器,快速获取纯净运行环境(Ubuntu 22.04 LTS 镜像已预装 Docker)。

确保系统已安装 Docker 和 Docker Compose v2.20+:
# Ubuntu/Debian(其他系统请参考官方文档)sudo apt update && sudo apt install -y curl gnupg lsb-releasecurl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpgecho "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/nullsudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-pluginsudo usermod -aG docker $USERnewgrp docker # 刷新组权限(或重新登录终端)拉取官方 ollama-webui 镜像并启动服务(自动集成 Ollama 后端):
mkdir -p ~/ollama-webui && cd ~/ollama-webuicurl -sSfL https://raw.githubusercontent.com/ollama-webui/ollama-webui/main/docker-compose.yml -o docker-compose.yml编辑 docker-compose.yml,确认端口映射与模型存储路径(默认已优化);如需持久化模型数据,确保宿主机目录可写:
services: ollama-webui: image: ghcr.io/ollama-webui/ollama-webui:main ports: - "3000:3000" volumes: - ./data:/app/data - ./models:/root/.ollama/models restart: unless-stopped启动服务:
docker compose up -d等待约 30 秒后,在浏览器访问:
👉 http://localhost:3000(本地) 或 http://<服务器IP>:3000(远程)
首次打开将自动跳转至 Ollama 控制台 → 点击左上角「+ New Chat」→ 在模型选择框中点击「Pull Model」输入 llama3:8b 并回车,下载完成后即可开始对话。
适用于 macOS/Linux(ARM64/x86_64),需 2GB+ 内存(仅运行 WebUI 前端 + 外部 Ollama 服务)。同样推荐使用 Ciuic 服务器 获取免配置 Ubuntu 实例,避免环境冲突。
安装 Ollama 运行时(无需 Python/Node.js)及 Git 工具:
# Linux(x86_64)curl -fsSL https://ollama.com/install.sh | sh# macOS(Intel/Apple Silicon)brew install ollama# 验证安装ollama --version # 应输出 v0.3.0+克隆 WebUI 前端项目(纯静态,无需构建):
git clone https://github.com/ollama-webui/ollama-webui.git ~/ollama-webui-manualcd ~/ollama-webui-manual修改前端配置,指向本地 Ollama API(默认 http://localhost:11434):
nano .env.local填入以下内容(确保无空格、无注释):
VITE_API_BASE_URL=http://localhost:11434VITE_APP_TITLE=Ollama WebUI (Manual)启动轻量 HTTP 服务(使用 Python 内置模块,无需 Node):
cd dist && python3 -m http.server 3001✅ 注:若未生成 dist/ 目录,请先执行 npm install && npm run build(需 Node.js ≥18),但本教程推荐直接使用已构建版本:
curl -sSfL https://github.com/ollama-webui/ollama-webui/releases/download/v0.5.17/dist.zip -o dist.zip && unzip dist.zip -d .在浏览器打开:
👉 http://localhost:3001(本地) 或 http://<服务器IP>:3001(远程)
确认右上角显示 “Connected to Ollama” 即表示后端通信正常;运行 ollama list 可查看已加载模型,未有则执行 ollama pull qwen2:1.5b 测试。
| 维度 | Docker 方案 | 手动部署方案 |
|---|---|---|
| 适用人群 | 新手、多模型快速切换、需复现环境 | 熟悉 CLI、追求最小资源占用、需深度定制前端 |
| 启动速度 | ⚡️ 首次拉镜像略慢,后续秒启 | 🚀 二进制启动 <1s,无容器开销 |
| 持久性 | ✅ 自动挂载 /models,重启不丢模型 | ✅ 模型由 Ollama 管理,与 WebUI 解耦 |
通用优化建议:
开启 HTTPS:在反向代理(Nginx/Caddy)后配置 Let’s Encrypt,保护 API 密钥传输; 开机自启(Docker):sudo systemctl enable docker && docker compose up -d; 性能调优:Ollama 默认使用 CPU 推理,如服务器含 NVIDIA GPU,安装 nvidia-container-toolkit 后在 docker-compose.yml 中添加 runtime: nvidia 与 environment: - OLLAMA_NUM_GPU=1; 安全加固:禁止公网直接暴露 11434 端口,仅允许 WebUI 容器内部访问,对外仅开放 3000/3001 端口。提示:所有命令均经 Ubuntu 22.04 / macOS Sonoma 实测通过,如遇权限问题,请勿省略 sudo 或 newgrp docker 步骤。
本文链接:https://ciuic.com/som/25286.html
版权声明:本文来自网站作者,不代表CIUIC的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:ciuic@ciuic.com
打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!