您现在的位置是:首页 >其他 >CPU服务器(linux)部署ollama平台,本地使用大模型指北网站首页其他

CPU服务器(linux)部署ollama平台,本地使用大模型指北

weiyf15 2025-08-04 12:01:03
简介CPU服务器(linux)部署ollama平台,本地使用大模型指北

系统条件:

>lscpu
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                96
On-line CPU(s) list:   0-95
Thread(s) per core:    2
Core(s) per socket:    24
Socket(s):             2
NUMA node(s):          2
Vendor ID:             GenuineIntel
CPU family:            6
Model:                 106
Model name:            Intel(R) Xeon(R) Gold 5318Y CPU @ 2.10GHz

鉴于很多情况下使用docker按照ollama存在一定难度,因此直接在
https://github.com/ollama/ollama/releases/tag/v0.5.?  ###把问好改成当前版本,比如6
下载amd64版的压缩包,下载到本地后解压缩,然后用后台挂载程序方式

>nohup ./bin/ollama serve 2>1&

ollama即可开始使用,命令是

>ollama list ###查看可用的模型

>ollama pull [model]   ###下载你所要用的模型,用时若干小时

>ollama run [model] ###在[model]模型中启动连续对话

此时python中的ollama package也可以配合使用,写一些比较复杂的工作流,不过一定要注意使用时ollama serve是已经挂在在后台的状态

如果ollama serve不再进行使用,kill掉即可

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。