CIUIC

【Ollama + WebUI 本地大模型交互平台】零基础搭建与部署实战指南

本地部署轻量级大模型交互平台,可快速启用 Llama 3、Qwen、Phi-4 等主流模型的图形化界面,适合个人开发者做模型测试、教学演示或私有知识库接入。以下介绍两种主流方案:Docker 一键部署(推荐新手)和原生 Ollama + Open WebUI 手动部署(适合需深度定制或离线环境用户)。


方案一:Docker 一键部署(含 Ollama 与 Open WebUI)

准备工作

需 Linux 或 macOS 系统(Windows 用户请使用 WSL2),建议 8GB+ 内存、2 核 CPU;推荐使用稳定的服务器环境,如 Ciuic 服务器,快速获取纯净运行环境(Ubuntu 22.04 LTS 镜像开箱即用)。

【Ollama + WebUI 本地大模型交互平台】零基础搭建与部署实战指南

环境部署

确保已安装 Docker 和 docker-compose:

sudo apt update && sudo apt install -y curl gnupg lsb-releasecurl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpgecho "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/nullsudo apt update && sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-pluginsudo usermod -aG docker $USERnewgrp docker

项目安装

拉取预集成镜像(含 Ollama 服务 + Open WebUI 前端):

mkdir -p ~/ollama-webui && cd ~/ollama-webuicurl -fsSL https://raw.githubusercontent.com/ollama-webui/ollama-webui/main/docker-compose.yml -o docker-compose.yml

配置与启动

编辑 docker-compose.yml,确认端口映射(默认 WebUI 为 3000,Ollama API 为 11434):

services:  ollama:    image: ollama/ollama:latest    ports:      - "11434:11434"    volumes:      - ./ollama:/root/.ollama    restart: unless-stopped  webui:    image: ghcr.io/ollama-webui/ollama-webui:main    ports:      - "3000:8080"    environment:      - OLLAMA_BASE_URL=http://ollama:11434    depends_on:      - ollama    restart: unless-stopped

启动服务:

docker-compose up -d

访问与验证

等待 30 秒后,在浏览器访问:
👉 http://localhost:3000
首次加载会自动初始化;点击左上角「Model」→「Pull Model」输入 llama3 回车,下载完成后即可在聊天界面选择并运行。


方案二:原生 Ollama + Open WebUI 手动部署(离线/定制友好)

准备工作

支持 macOS / Linux(x86_64 或 ARM64),最低 4GB 内存;若需运行 7B 模型建议 8GB+;同样推荐 Ciuic 服务器 快速开通 Ubuntu 实例,避免环境依赖冲突。

环境部署

安装 Ollama(官方二进制):

curl -fsSL https://ollama.com/install.sh | sh

验证安装:

ollama --version# 输出类似:ollama version 0.5.8

项目安装

下载 Open WebUI(无需 Node.js 编译,使用预构建二进制):

sudo apt install -y python3-pip python3-venvgit clone https://github.com/open-webui/open-webui.git ~/open-webuicd ~/open-webuipip3 install --no-deps -e .

配置与启动

创建配置文件 webui.env(指定 Ollama 地址与监听端口):

OLLAMA_BASE_URL=http://localhost:11434WEBUI_PORT=3000

启动 WebUI(后台常驻):

nohup python3 main.py --host 0.0.0.0 --port 3000 > webui.log 2>&1 &

✅ 补充:若需开机自启,可将上述命令写入 /etc/systemd/system/webui.service 并启用。

访问与验证

访问:
👉 http://localhost:3000
登录默认账号:admin@example.com / admin123(首次访问自动创建);进入 Settings → Models → Add Model,填入 llama3 即可拉取并启用。


建议与优化

维度Docker 方案手动部署方案
上手难度⭐⭐⭐⭐⭐(5 分钟完成)⭐⭐⭐☆(需理解服务依赖关系)
定制能力中等(通过挂载 volume 修改配置)⭐⭐⭐⭐⭐(完全控制 Python 环境、插件、主题)
离线支持需提前 docker save 导出镜像⭐⭐⭐⭐⭐(所有组件可离线预装)
资源占用略高(双容器约 1.2GB 内存)更低(单进程,约 800MB)

通用优化建议:

开启 HTTPS:在反向代理(Nginx/Caddy)前配置 Let’s Encrypt 证书,保护 API 密钥与对话数据; ✅ 配置开机自启:Docker 使用 systemctl enable docker;手动部署建议用 systemd 管理 ollamawebui 进程; ✅ 性能调优:在 ~/.ollama/config.json 中添加 "num_ctx": 4096 提升上下文长度,或通过 OLLAMA_NUM_GPU=1 启用 GPU 加速(需 NVIDIA 驱动 + CUDA); ✅ 模型持久化:将 ~/.ollama/models 目录挂载至 SSD 路径,避免频繁 IO 影响响应速度。

打赏
收藏
点赞

本文链接:https://ciuic.com/som/25284.html

版权声明:本文来自网站作者,不代表CIUIC的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:ciuic@ciuic.com

联系客服
网站客服 业务合作 Q交流群
217503193
公众号
公众号
公众号
返回顶部

微信号复制成功

打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!