CentOS7装Ollama,本以为小菜一碟,没想到掉坑里了!

CentOS7装Ollama,本以为小菜一碟,没想到掉坑里了!

编码文章call10242025-05-28 16:38:545A+A-

今天准备在CentOS7上安装Ollama,原本以为是小事一桩。哪想还是遇上了点小麻烦。因为在Windows上安装Ollama太小儿科了,上ollama.com网站下载程序,一键安装即可,最多就是设置下 OLLAMA_MODELS环境变量,改变下载模型至D盘等。其他基本不用管。

在CentOS7上安装,按照教程运行:curl -fsSL
https://ollama.com/install.sh | sh

顺利安装并自动运行。ollama -v 可显示出版本号。由于模型的尺寸一般都较大,所以要指定下载目录。运行 export OLLAMA_MODELS = /home/models,并加入了/etc/profile文件中。想着重启下ollama服务就可以搞定了。但linux上ollama命令行没有提供重启和退出的命令参数。直接使用kill -9 进程号杀掉。可意外的是,发现一杀掉马上又重新启动了一个新的服务。查了资料,发现是要用systemctl来进行操作。于是运行:systemctl restart ollama。重启之后,使用ollama pull 模型名称。发现拉下来的,仍然在
/usr/share/ollama/.ollama/models 的默认目录下。也即OLLAMA_MODELS环境变量没有生效。多亏了DeepSeek,一查就知道原因了,是由于
在Shell中通过export设置的环境变量仅对当前终端会话有效,不会影响后台服务进程。按指导编辑配置文件:

vi /etc/systemd/system/ollama.service

在[Service]下面添加相应的环境变量Environment,包括OLLAMA_HOSTOLLAMA_MODELS

Environment="OLLAMA_MODELS=/home/models" 
Environment="OLLAMA_HOST=127.0.0.1:11400"

顺便改了服务监听端口。再次运行:systemctl restart ollama。结果直接挂了,服务启动不了。真是好事多磨。原来是权限问题。设置的/home/models目录要给ollama用户配置权限。运行:

sudo chown -R ollama:ollama /home/models

sudo chmod 755 /home/models

再次运行systemctl restart ollama,服务正常启动。运行ollama pull 模型名 也将模型正常下载到了/home/models目录下。接下来就可以愉快地本地化部署大模型了。如果你在安装部署时,也遇到了什么麻烦,在评论区留言,有问必答!



点击这里复制本文地址 以上内容由文彬编程网整理呈现,请务必在转载分享时注明本文地址!如对内容有疑问,请联系我们,谢谢!
qrcode

文彬编程网 © All Rights Reserved.  蜀ICP备2024111239号-4