您现在的位置是:首页 >其他 >Ollama+OpenWebUI部署本地大模型网站首页其他
Ollama+OpenWebUI部署本地大模型
简介Ollama+OpenWebUI部署本地大模型
安装ollama
#下载ollama_install.sh并保存
curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
#使用github文件加速替换github下载地址
sed -i 's|https://ollama.com/download/ollama-linux|https://gh.llkk.cc/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux|g' ollama_install.sh
#替换后增加可执行权限
chmod +x ollama_install.sh
#执行sh下载安装
sh ollama_install.sh
vim /etc/systemd/system/ollama.service
最后让配置生效
systemctl daemon-reload
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
# 添加环境变量:
风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。