当前位置: 首页> 文旅> 文化 > python培训骗局_乌鲁木齐网站设计公司_北京排名seo_做一套二级域名网站怎么做

python培训骗局_乌鲁木齐网站设计公司_北京排名seo_做一套二级域名网站怎么做

时间:2025/7/8 23:01:02来源:https://blog.csdn.net/zishuijing_dd/article/details/148767356 浏览次数:0次
python培训骗局_乌鲁木齐网站设计公司_北京排名seo_做一套二级域名网站怎么做

在 Linux 上将 Ollama 部署为系统服务

本文档介绍了如何在 Linux 系统上将 Ollama 部署为一个后台服务(systemd 服务),并配置相关环境变量,以确保其稳定运行。文档中使用的用户名为 test,请根据实际情况替换为你自己的用户。


📁 目录

  1. 创建 systemd 服务文件
  2. 服务管理命令
  3. 配置环境变量
  4. 验证部署

创建 systemd 服务文件

使用 sudo 编辑器创建一个新的 systemd 服务文件:

sudo vi /etc/systemd/system/ollama.service

将以下内容粘贴到该文件中(请根据你的实际路径进行调整):

[Unit]
Description=Ollama LLM Server
After=network.target[Service]
Type=simple
User=test
Group=test
WorkingDirectory=/home/testExecStart=/opt/app/test/ai/ollama/bin/ollama serve
Restart=on-failure
RestartSec=5
Environment="PATH=/usr/local/bin:/usr/bin:/bin:/opt/app/test/ai/ollama/bin"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/opt/app/test/ollamamodels"
Environment="HOME=/home/test"[Install]
WantedBy=multi-user.target

说明:

  • User=test 表示以 test 用户身份运行服务。
  • ExecStart 使用的是 Ollama 的绝对路径,请确保路径正确。
  • Environment 设置了 PATH,确保系统能找到 Ollama 可执行文件。
  • Restart=on-failure 表示如果服务崩溃,会自动重启。

保存并退出编辑器。注意这里面不要跟在行后写注释,会影响解析


编辑文件以后,使用 systemctl daemon-reload 生效以上文件

服务管理命令

启动、停止和查看 Ollama 服务状态的常用命令如下:

# 启动服务
sudo systemctl start ollama.service# 停止服务
sudo systemctl stop ollama.service# 查看服务状态
sudo systemctl status ollama.service# 设置开机自启
sudo systemctl enable ollama.service# 取消开机自启
sudo systemctl disable ollama.service

配置环境变量

为了方便使用 Ollama 命令,并设置模型存储路径等参数,建议在用户主目录下的 .bashrc 文件中添加以下环境变量:

vi ~/.bashrc

添加如下内容:

# 将 Ollama 添加到 PATH
export PATH=$PATH:/home/test/ai/ollama/bin# 允许跨域请求(用于 API 调用)
export OLLAMA_ORIGINS=*# 自定义模型存储路径
export OLLAMA_MODELS=/opt/app/test/ollamamodels# 设置监听地址和端口
export OLLAMA_HOST=0.0.0.0:11434

保存后立即生效:

source ~/.bashrc

验证部署

1. 启动服务

sudo systemctl start ollama.service

2. 查看服务状态

sudo systemctl status ollama.service

你应该看到类似以下输出,表示服务正在运行:

● ollama.service - Ollama LLM ServerLoaded: loaded (/etc/systemd/system/ollama.service; disabled; vendor preset: enabled)Active: active (running) since ...

3. 测试访问

你可以通过浏览器或 curl 命令测试是否能访问 Ollama 的 API 接口:

curl http://localhost:11434/api/tags

你应该得到一个 JSON 格式的模型列表响应。


✅ 总结

至此,你已经成功地将 Ollama 部署为一个系统服务,并配置了必要的环境变量。现在你可以:

  • 通过 systemctl 控制服务启停;
  • 在任意位置调用 ollama 命令;
  • 指定模型存储路径;
  • 支持远程访问 API。

如需进一步优化,可以结合 Nginx 或 Traefik 进行反向代理,实现 HTTPS 访问等高级功能。


如需帮助或反馈问题,请联系管理员或参考 Ollama 官方文档。

关键字:python培训骗局_乌鲁木齐网站设计公司_北京排名seo_做一套二级域名网站怎么做

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: