当前位置: 首页> 科技> 能源 > 动态网页设计实验总结_跨境电商app开发_自制网站 免费_知识营销

动态网页设计实验总结_跨境电商app开发_自制网站 免费_知识营销

时间:2025/7/16 14:53:13来源:https://blog.csdn.net/hahaha_1112/article/details/145062256 浏览次数:0次
动态网页设计实验总结_跨境电商app开发_自制网站 免费_知识营销

该版本安装时间是2025-01-10,因为不同版本可能安装上会有所不同,下面也会讲到。

先说下问题——按照官方文档找不到执行命令llama-cli或./llama-cli

先附上llama.cpp的github地址:https://github.com/ggerganov/llama.cpp,build地址:https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md。不知道你有没有出现这种情况,按照官方文档安装之后,发现根本找不到执行命令llama-cli或./llama-cli,如果没有可以跳过,如果有请按照我的以下流程安装一遍。

下载llama.cpp

我这里使用的是git命令下载:

git clone https://github.com/ggerganov/llama.cpp

如果需要在内网服务器中安装,可以下载llama.cpp的源码文件或二进制文件,下载地址:https://github.com/ggerganov/llama.cpp/releases
在这里插入图片描述

编译

下面进入编译阶段,服务器使用的是nvidia-A10的gpu,编译使用的cuda编译版本。
如果是内网安装,需要先将安装包拷贝进来,然后解压:tar -xzvf ****.tar.gz

cd llama.cpp
cmake -B build -DGGML_CUDA=ON # 启动cuda加速
cmake --build build --config Release

启动模型

其实到这里llama.cpp已经编译安装好了,但是你如果看官方文档,你会发现你找不到执行命令llama-cli或./llama-cli,其实如果你想直接使用llama-cli命令,你需要配置环境变量,如果你想使用./llama-cli,你需要进入build/bin目录执行。

cd llama.cpp/build/bin

启动模型

./llama-cli -m /mnt/workspace/models/qwen2.5-7b-instruct-q4_k_m.gguf  -co -cnv -p "你是一个好的助手" -fa -ngl 80 -n 512
关键字:动态网页设计实验总结_跨境电商app开发_自制网站 免费_知识营销

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: