您现在的位置是:首页 >技术杂谈 >Ollama+OpenWebUI部署本地大模型网站首页技术杂谈

Ollama+OpenWebUI部署本地大模型

ta习惯 ~ 2025-07-16 00:01:03
简介Ollama+OpenWebUI部署本地大模型

安装ollama

#下载ollama_install.sh并保存
curl -fsSL https://ollama.com/install.sh -o ollama_install.sh

#使用github文件加速替换github下载地址
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh

#替换后增加可执行权限
chmod +x ollama_install.sh

#执行sh下载安装
sh ollama_install.sh

vim /etc/systemd/system/ollama.service

最后让配置生效

systemctl daemon-reload

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

# 添加环境变量:
Environment="OLLAMA_HOST=0.0.0.0:11434"


[Install]
WantedBy=default.target

vim /etc/profile

最后让配置生效

source /etc/profile

# /etc/profile: system-wide .profile file for the Bourne shell (sh(1))
# and Bourne compatible shells (bash(1), ksh(1), ash(1), ...).

if [ "${PS1-}" ]; then
  if [ "${BASH-}" ] && [ "$BASH" != "/bin/sh" ]; then
    # The file bash.bashrc already sets the default PS1.
    # PS1='h:w$ '
    if [ -f /etc/bash.bashrc ]; then
      . /etc/bash.bashrc
    fi
  else
    if [ "$(id -u)" -eq 0 ]; then
      PS1='# '
    else
      PS1='$ '
    fi
  fi
fi

if [ -d /etc/profile.d ]; then
  for i in /etc/profile.d/*.sh; do
    if [ -r $i ]; then
      . $i
    fi
  done
  unset i
fi

# 放行外网使用:
export OLLAMA_HOST=0.0.0.0:11434

启动ollama

# 查看服务是否在运行
systemctl status ollama  
# 如果服务已启动,先停止
systemctl stop ollama    
# 手动启动服务
ollama serve  
#后台运行
nohup ollama serve & 

安装Open-WebUI

本地使用 docker 部署Open-WebUI,使用以下命令下载 Open-WebUI

docker pull ghcr.io/open-webui/open-webui:main

启动 Open-WebUI

创建本地目录,避免重启后数据丢失
mkdir /opt/open-webui/data
cd /opt/open-webui/

启动容器
docker run -d -p 3000:8080 -v $PWD/data:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

启动成功后,可在终端中查看容器状态,通过浏览器访问Open-WebUI:http://localhost:3000

配置 Ollama 地址:

浏览器进入 Open-WebUI 后,点击右上角的设置图标 进入设置页面。在“模型”选项卡中,点击“添加模型”,选择“Ollama”,并输入 Ollama 的地址(默认为http://localhost:11434)。

选择一个自己喜欢的大模型

根据自己电脑的配置选择,选择好之后复制

粘贴到这里然后点击下载,等待下载完成就可以了

  我这里使用的是啊里开源Qwen2.5 大模型可以多下载几个大模型

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。