当前位置: 首页> 科技> 数码 > llama3模型部署时遇到的问题及解决方案

llama3模型部署时遇到的问题及解决方案

时间:2025/7/11 18:03:04来源:https://blog.csdn.net/Wait_Godot/article/details/140064639 浏览次数:0次

在llama3模型部署时,会遇到一系列问题,这里就作者所遇到的问题与解决方法分享一下。

注意:这里是从llama3 github主页上给的方法一步步做的,不适用于其他部署大模型的方法。

image-20240629145909566

文章目录

  • ERROR 403:Forbidden
  • 安装依赖时出错
  • cuda与pytorch版本不一致问题
  • 模型成功运行截图

ERROR 403:Forbidden

image-20240629150223217

原因:在模型下载时本地IP或代理IP被服务器ban掉

解决方法:使用科学方法,一个节点一个节点去试;或者换用国内的镜像源:魔塔社区

安装依赖时出错

image-20240629150249545

原因:系统没有安装Rust编译器

解决方法:安装cargo,里面包含了所需的Rust编译工具和其他一些工具

cuda与pytorch版本不一致问题

img

原因:cuda与pytorch版本不一致

解决方法:在pytorch官网上查询对应版本,重新安装版本一致的pytorch或cuda

模型成功运行截图

example_chat_completion.py

img

example_text_completion.py

img

关键字:llama3模型部署时遇到的问题及解决方案

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: