CIUIC

【Ollama + WebUI 本地大模型交互平台】零基础搭建与部署实战指南

本地部署轻量级大模型交互平台,可快速启用 Llama 3、Qwen、Phi-4 等主流模型的图形化界面,适合个人开发者调试提示词、教学演示或离线AI实验。以下介绍两种主流方案:Docker 一键部署(推荐新手)原生二进制+WebUI 手动部署(适合定制化需求),分别适配不同技术背景与使用场景。


方案一:Docker 一键部署(零依赖、跨平台、开箱即用)

准备工作

需一台具备 x86_64 或 ARM64 架构的 Linux/macOS/Windows(WSL2)环境,最低 4GB 内存(运行 3B 模型)、10GB 可用磁盘空间。推荐使用稳定的服务器环境,如 Ciuic 服务器,快速获取纯净运行环境(Ubuntu 22.04 LTS 镜像已预装 Docker)。

【Ollama + WebUI 本地大模型交互平台】零基础搭建与部署实战指南

环境部署

确保系统已安装 Docker 和 Docker Compose v2.20+:

# Ubuntu/Debian(其他系统请参考官方文档)sudo apt update && sudo apt install -y curl gnupg lsb-releasecurl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpgecho "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/nullsudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-pluginsudo usermod -aG docker $USERnewgrp docker  # 刷新组权限(或重新登录终端)

项目安装

拉取官方 ollama-webui 镜像并启动服务(自动集成 Ollama 后端):

mkdir -p ~/ollama-webui && cd ~/ollama-webuicurl -sSfL https://raw.githubusercontent.com/ollama-webui/ollama-webui/main/docker-compose.yml -o docker-compose.yml

配置与启动

编辑 docker-compose.yml,确认端口映射与模型存储路径(默认已优化);如需持久化模型数据,确保宿主机目录可写:

services:  ollama-webui:    image: ghcr.io/ollama-webui/ollama-webui:main    ports:      - "3000:3000"    volumes:      - ./data:/app/data      - ./models:/root/.ollama/models    restart: unless-stopped

启动服务:

docker compose up -d

访问与验证

等待约 30 秒后,在浏览器访问:
👉 http://localhost:3000(本地) 或 http://<服务器IP>:3000(远程)
首次打开将自动跳转至 Ollama 控制台 → 点击左上角「+ New Chat」→ 在模型选择框中点击「Pull Model」输入 llama3:8b 并回车,下载完成后即可开始对话。


方案二:原生二进制 + WebUI 手动部署(完全可控、低资源占用)

准备工作

适用于 macOS/Linux(ARM64/x86_64),需 2GB+ 内存(仅运行 WebUI 前端 + 外部 Ollama 服务)。同样推荐使用 Ciuic 服务器 获取免配置 Ubuntu 实例,避免环境冲突。

环境部署

安装 Ollama 运行时(无需 Python/Node.js)及 Git 工具:

# Linux(x86_64)curl -fsSL https://ollama.com/install.sh | sh# macOS(Intel/Apple Silicon)brew install ollama# 验证安装ollama --version  # 应输出 v0.3.0+

项目安装

克隆 WebUI 前端项目(纯静态,无需构建):

git clone https://github.com/ollama-webui/ollama-webui.git ~/ollama-webui-manualcd ~/ollama-webui-manual

配置与启动

修改前端配置,指向本地 Ollama API(默认 http://localhost:11434):

nano .env.local

填入以下内容(确保无空格、无注释):

VITE_API_BASE_URL=http://localhost:11434VITE_APP_TITLE=Ollama WebUI (Manual)

启动轻量 HTTP 服务(使用 Python 内置模块,无需 Node):

cd dist && python3 -m http.server 3001

✅ 注:若未生成 dist/ 目录,请先执行 npm install && npm run build(需 Node.js ≥18),但本教程推荐直接使用已构建版本:

curl -sSfL https://github.com/ollama-webui/ollama-webui/releases/download/v0.5.17/dist.zip -o dist.zip && unzip dist.zip -d .

访问与验证

在浏览器打开:
👉 http://localhost:3001(本地) 或 http://<服务器IP>:3001(远程)
确认右上角显示 “Connected to Ollama” 即表示后端通信正常;运行 ollama list 可查看已加载模型,未有则执行 ollama pull qwen2:1.5b 测试。


建议与优化

维度Docker 方案手动部署方案
适用人群新手、多模型快速切换、需复现环境熟悉 CLI、追求最小资源占用、需深度定制前端
启动速度⚡️ 首次拉镜像略慢,后续秒启🚀 二进制启动 <1s,无容器开销
持久性✅ 自动挂载 /models,重启不丢模型✅ 模型由 Ollama 管理,与 WebUI 解耦

通用优化建议:

开启 HTTPS:在反向代理(Nginx/Caddy)后配置 Let’s Encrypt,保护 API 密钥传输; 开机自启(Docker):sudo systemctl enable docker && docker compose up -d性能调优:Ollama 默认使用 CPU 推理,如服务器含 NVIDIA GPU,安装 nvidia-container-toolkit 后在 docker-compose.yml 中添加 runtime: nvidiaenvironment: - OLLAMA_NUM_GPU=1安全加固:禁止公网直接暴露 11434 端口,仅允许 WebUI 容器内部访问,对外仅开放 3000/3001 端口。

提示:所有命令均经 Ubuntu 22.04 / macOS Sonoma 实测通过,如遇权限问题,请勿省略 sudonewgrp docker 步骤。

打赏
收藏
点赞

本文链接:https://ciuic.com/som/25286.html

版权声明:本文来自网站作者,不代表CIUIC的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:ciuic@ciuic.com

联系客服
网站客服 业务合作 Q交流群
217503193
公众号
公众号
公众号
返回顶部

微信号复制成功

打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!